
كيف سيكون شعورك إذا تم نشر سجل بحثك على الإنترنت ليشاهده الآخرون؟ قد يحدث هذا لبعض مستخدمي Meta AI دون إدراكهم، حيث يتم نشر طلبات المستخدمين للذكاء الاصطناعي والنتائج في تغذية عامة.
قال أحد خبراء أمان الإنترنت إنه يعد “مشكلة ضخمة في تجربة المستخدم والأمان”، حيث يمكن تتبع بعض المنشورات بسهولة إلى حسابات وسائل التواصل الاجتماعي. هذا يعني أن بعض الأشخاص قد يكشفون عن أبحاثهم دون علمهم، مثل طلبات إنشاء شخصيات شبه عارية أو المساعدة في الغش في الاختبارات.
تؤكد Meta أن الدردشات خاصة بشكل افتراضي، وإذا قرر المستخدمون جعل منشور عام، يمكنهم سحبه لاحقًا. قبل مشاركة المنشور، تظهر رسالة تقول: “الطلبات التي تنشرها عامة ومرئية للجميع… تجنب مشاركة المعلومات الشخصية أو الحساسة.”
ومع ذلك، بالنظر إلى الطبيعة الخاصة لبعض الاستفسارات، لا يتضح ما إذا كان المستخدمون يدركون أن أبحاثهم يتم نشرها في تغذية عامة على تطبيق Meta AI وموقعه، وأنه يمكن تتبعها إلى حساباتهم الاجتماعية الأخرى من خلال أسماء المستخدمين وصور الملف الشخصي.
وجدت بي بي سي عدة أمثلة لأشخاص يقومون بتحميل صور لأسئلة اختبارات مدرسية أو جامعية، ويطلبون من Meta AI إجابات. كان أحد المحادثات بعنوان “الذكاء الاصطناعي التوليدي يحل مسائل الرياضيات بسهولة”.
كانت محادثة أخرى لمستخدم تم نشرها علنًا تتعلق باستكشاف أسئلة حول هويتهم الجنسية وما إذا كانوا ينبغي عليهم الانتقال. كما كانت هناك طلبات لشخصيات نسائية وحيوانات متحركة ترتدي ملابس قليلة جدًا.
أحد الطلبات، الذي يمكن تتبعه إلى حساب شخصي على إنستغرام بسبب اسم المستخدم وصورة الملف الشخصي، طلب من Meta AI إنشاء صورة لشخصية كرتونية مستلقية في الخارج ترتدي فقط الملابس الداخلية.
“أنت في التحكم”
تم إطلاق Meta AI في وقت سابق من هذا العام، ويمكن الوصول إليه من خلال منصات التواصل الاجتماعي مثل فيسبوك وإنستغرام وواتساب. كما أنه متاح كمنتج مستقل يحتوي على تغذية عامة.
يمكن للمستخدمين اختيار جعل أبحاثهم خاصة في إعدادات حساباتهم. Meta AI متاح حاليًا في المملكة المتحدة عبر المتصفح، بينما يمكن استخدامه في الولايات المتحدة عبر تطبيق.
في بيان صحفي من أبريل الذي أعلن عن Meta AI، قالت الشركة إنه سيكون هناك “تغذية اكتشاف، مكان لمشاركة واستكشاف كيفية استخدام الآخرين للذكاء الاصطناعي”. وذكرت: “أنت في التحكم: لا شيء يتم مشاركته في تغذيتك ما لم تختار نشره.”
ومع ذلك، قالت راشيل توباك، الرئيسة التنفيذية لشركة الأمان السيبراني الأمريكية Social Proof Security، على منصة X: “إذا كانت توقعات المستخدم حول كيفية عمل الأداة لا تتطابق مع الواقع، فإنك تواجه مشكلة ضخمة في تجربة المستخدم والأمان.” وأضافت أن الناس لا يتوقعون أن يتم نشر تفاعلاتهم مع روبوتات المحادثة في تغذية عامة مرتبطة عادةً بوسائل التواصل الاجتماعي.
“بسبب ذلك، يقوم المستخدمون بشكل غير مقصود بنشر معلومات حساسة في تغذية عامة مرتبطة بهويتهم.”
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.