ميتا ستُدرّب نماذج الذكاء الاصطناعي باستخدام بيانات مستخدمي الاتحاد الأوروبي: مخاوف أخلاقية وقانونية
كتب: محمد شاهين

أعلنت شركة ميتا عن نيتها استخدام المحتوى الذي يُشاركه مستخدموها البالغون في الاتحاد الأوروبي لتدريب نماذج الذكاء الاصطناعي الخاصة بها. ويأتي هذا الإعلان بعد إطلاق ميزات الذكاء الاصطناعي من ميتا في أوروبا مؤخراً، ويهدف إلى تعزيز قدرات أنظمتها وتحسين ملاءمتها لِثقافات سكان المنطقة المُتنوّعة.
ستبدأ ميتا هذا الأسبوع بإرسال إشعاراتٍ إلى مستخدمي منصاتها (بما في ذلك فيسبوك، وإنستغرام، واتساب، ومسنغر) في الاتحاد الأوروبي، تشرح كيفية استخدام بياناتهم. وستُفصّل هذه الإشعارات، التي سيتمّ إرسالها ضمن التطبيقات وبريدًا إلكترونيًا، أنواع البيانات العامة المُستخدمة، وستحتوي على رابطٍ إلى نموذج اعتراض. وأكدت ميتا أنها لن تستخدم الرسائل الخاصة بين الأصدقاء والعائلة في التدريب. كما لن يتمّ إدراج البيانات العامة المرتبطة بحسابات الأشخاص أقل من 18 عامًا في مجموعات البيانات التدريبية.
تُبرّر ميتا هذه المبادرة بأنها خطوةٌ ضرورية نحو إنشاء أدوات ذكاء اصطناعي مُصممة لِمستخدمي الاتحاد الأوروبي، مُشددةً على أهمية مراعاة الخصائص الثقافية واللغوية المُتنوّعة في المنطقة. وتُشير ميتا إلى أن ممارسة تدريب الذكاء الاصطناعي على بيانات المستخدمين شائعة في هذه الصناعة، وتُؤكد على شفافية نهجها مقارنةً بغيرها من الشركات.
لكنّ استخدام كمياتٍ ضخمة من بيانات المستخدمين العامة من منصات التواصل الاجتماعي لتدريب نماذج اللغة الكبيرة والذكاء الاصطناعي التوليدي يثير مخاوفَ كبيرة بين مدافعي عن الخصوصية. فقد لا يكون المستخدمون على دراية بأنّ محتواهم العام سيتمّ استخدامه لتدريب أنظمة ذكاء اصطناعي تجاريّة، كما أنّ المنصات تعكس وتُضخّم أحيانًا التحيزات الاجتماعية، مما يُمكن أن يؤدّي إلى تضخيم هذه التحيزات في نماذج الذكاء الاصطناعي. كما تُثير مسائل حقوق الطبع والنشر مخاوفَ قانونية.
في الختام، يُبرز نهج ميتا في الاتحاد الأوروبي أهمية المحتوى الذي يُولّده المستخدمون في اقتصاد الذكاء الاصطناعي المُزدهر. ومع اتّساع نطاق هذه الممارسات، سيتصاعد النقاش حول خصوصية البيانات، والموافقة المُستنيرة، والانحياز الخوارزمي، والمسؤوليات الأخلاقية لِمطوّري الذكاء الاصطناعي في أوروبا وخارجها.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.







