
تعتزم شركة ميتا (Meta) استخدام نظامٍ يعتمد على الذكاء الاصطناعيّ لتقييم المخاطر الخاصة بخصوصية البيانات والمخاطر الأخرى في ما يصل إلى ٩٠٪ من التحديثات المُدخلة على تطبيقاتها، مثل إنستغرام واتساب، وفقًا لوثائقٍ داخلية اطّلعت عليها NPR كما أفادت.
ذكرت NPR أنّ اتفاقيةً عُقدت في عام ٢٠١٢ بين فيسبوك (ميتا حاليًا) ولجنة التجارة الاتحادية تُلزم الشركة بإجراء مُراجعاتٍ لخصوصية منتجاتها، وتقييم مخاطر أيّ تحديثاتٍ مُحتملة. وحتى الآن، كانت هذه المُراجعات تُجرى بشكلٍ رئيسيّ من قبل مُقيّمين بشريين.
وبحسب ما ورد، فإنّ النظام الجديد سيطلب من فرق المنتجات ملء استبيانٍ حول عملهم، ثمّ سيتلقّون عادةً “قرارًا فوريًا” بالمخاطر التي يُحدّدها الذكاء الاصطناعيّ، إلى جانب المتطلبات التي يجب أن يُلبّيها التحديث أو الميزة قبل إطلاقه.
سيُتيح هذا النهج الذي يُركّز على الذكاء الاصطناعيّ لميتا تحديث منتجاتها بسرعةٍ أكبر، لكنّ مسؤولًا تنفيذيًا سابقًا أخبر NPR أنّه يُخلق أيضًا “مخاطرًا أعلى”، حيث “من الأقل ترجيحًا منع الآثار السلبية للتغييرات في المنتجات قبل أن تبدأ في التسبب في مشاكل في العالم”.
في بيانٍ، قال متحدثٌ باسم ميتا إنّ الشركة “استثمرت أكثر من ٨ مليارات دولار في برنامج الخصوصية الخاصّ بها” وهي ملتزمة بـ”تقديم منتجاتٍ مبتكرة للناس مع الوفاء بالالتزامات التنظيمية”.
وأضاف المتحدث باسم ميتا: “مع تطوّر المخاطر ونضوج برنامجنا، نقوم بتحسين عملياتنا لتحديد المخاطر بشكلٍ أفضل، وتبسيط عملية اتخاذ القرارات، و تحسين تجربة الناس. نستخدم التكنولوجيا لإضافة الاتساق والقدرة على التنبؤ للقرارات منخفضة المخاطر، ونعتمد على الخبرة البشرية للتقييمات الدقيقة والإشراف على المسائل الجديدة أو المُعقدة”.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.