
أعلنت ميتا أنها تعمل على “إصلاح” مشكلة أدت إلى إيقاف مجموعات فيسبوك عن طريق الخطأ، لكنها نفت وجود مشكلة أوسع على منصاتها. حيث أفاد بعض مديري المجموعات بأنهم تلقوا رسائل تلقائية تفيد بأنهم انتهكوا السياسات، مما أدى إلى حذف مجموعاتهم.
مشاكل شائعة مع الذكاء الاصطناعي
اشتكى بعض مستخدمي إنستغرام من مشاكل مماثلة مع حساباتهم، مما دفع الكثيرين إلى إلقاء اللوم على أنظمة الذكاء الاصطناعي الخاصة بميتا. وقد اعترفت الشركة بوجود “خطأ تقني” في مجموعات فيسبوك، لكنها أكدت عدم وجود دليل على زيادة كبيرة في تطبيق القواعد بشكل غير صحيح على منصاتها.
أمثلة على المجموعات المتأثرة
تم إيقاف مجموعة على فيسبوك، تتعلق بمشاركة الميمات حول الأخطاء، حيث أُخبر مؤسسها بأنها لم تتبع المعايير الخاصة بـ “المنظمات أو الأفراد الخطيرين”. لكن المجموعة، التي تضم أكثر من 680,000 عضو، تمت استعادتها لاحقًا. كما تم إيقاف مجموعة أخرى حول الذكاء الاصطناعي، التي تضم 3.5 مليون عضو، لفترة قصيرة بسبب “خطأ تكنولوجي”.
استجابة ميتا للاحتجاجات
تواجه ميتا أسئلة من آلاف الأشخاص حول الحظر الجماعي أو الإيقاف لحساباتهم على فيسبوك وإنستغرام. وقد جمعت عريضة بعنوان “ميتا تعطل الحسابات بشكل خاطئ دون دعم بشري” ما يقرب من 22,000 توقيع حتى كتابة هذا التقرير.
وتمت مشاركة العديد من القصص على موقع ريديت، حيث أبلغ البعض عن فقدان الوصول إلى صفحات تحمل قيمة عاطفية كبيرة، بينما أشار آخرون إلى فقدان حسابات مرتبطة بأعمالهم.
استخدام الذكاء الاصطناعي في الاعتدال
أشار مستخدمون إلى أن أدوات الاعتدال القائمة على الذكاء الاصطناعي لشركة ميتا جعلت من الصعب التحدث إلى شخص حول حساباتهم بعد إيقافها. في بيان، قالت ميتا: “نتخذ إجراءات بشأن الحسابات التي تنتهك سياساتنا، ويمكن للناس تقديم استئناف إذا اعتقدوا أننا ارتكبنا خطأ.”
تقرير الشفافية
أوضحت ميتا أنها تستخدم مزيجًا من التكنولوجيا والبشر للعثور على الحسابات التي تنتهك القواعد وإزالتها. في آخر تقرير لها، أفادت بأنها اتخذت إجراءات بشأن 4.6 مليون حالة من استغلال الأطفال الجنسي، وهو أقل عدد منذ أوائل عام 2021.
تُظهر هذه التطورات أهمية التوازن بين استخدام التكنولوجيا ووجود دعم بشري، لضمان عدم إضرار سياسات الاعتدال بالمستخدمين بشكل غير عادل.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.