ميتا تتطلع إلى استخدام المعلومات الشخصية من وسائل التواصل الاجتماعي لتدريب الذكاء الاصطناعي على “المفاهيم الأسترالية”
كتبت: أمل علوي

طالبت شركة ميتا الحكومة الأسترالية بعدم إجراء تغييرات على قوانين الخصوصية التي قد تمنعها من استخدام المعلومات الشخصية المأخوذة من منشورات فيسبوك وإنستغرام لتدريب الذكاء الاصطناعي الخاص بها. وأكدت ميتا أن الذكاء الاصطناعي بحاجة إلى فهم “كيفية مناقشة الأفراد للمفاهيم الأسترالية”.
في تقديمها لهيئة مراجعة الإنتاجية حول استغلال البيانات والتكنولوجيا الرقمية، أكدت الشركة الأم لفيسبوك وإنستغرام وواتساب على ضرورة وجود “توافق عالمي في السياسات” خلال سعي الحكومة الأسترالية لإصلاح قوانين الخصوصية في عصر الذكاء الاصطناعي.
أشارت ميتا إلى أن نماذج الذكاء الاصطناعي التوليدية تحتاج إلى “مجموعة بيانات كبيرة ومتنوعة” ولا يمكنها الاعتماد على البيانات الاصطناعية فقط. وأضافت أن قواعد البيانات المتاحة، مثل التشريعات الأسترالية، محدودة في ما يمكن أن تقدمه للذكاء الاصطناعي مقارنةً بمجموعات البيانات التي تحتوي على معلومات شخصية.
وقالت ميتا: “المناقشات الإنسانية حول الثقافة والفنون والاتجاهات الناشئة لا تنعكس في مثل هذه النصوص التشريعية، وأن الحوار الذي يحدث على منتجات ميتا يمثل تعلماً حيويًا حول كيفية مناقشة الأفراد للمفاهيم والحقائق الأسترالية”.
منذ العام الماضي، بدأت ميتا في تدريب ذكاءها الاصطناعي “لاما” على المنشورات المتاحة للجمهور على فيسبوك وإنستغرام. وقد تم توجيه الشركة لوقف استخدام بيانات المستخدمين في أوروبا، حيث قدمت ميتا خيار عدم المشاركة للمستخدمين في الاتحاد الأوروبي، وهو ما لم يكن متاحًا للمستخدمين الأستراليين.
كما أعربت ميتا عن قلقها من أن التطورات الأخيرة قد تؤدي إلى عدم توافق نظام الخصوصية الأسترالي مع المعايير الدولية، مما يجعل الصناعة تواجه التزامات تتعارض مع الأهداف الرقمية الأوسع لتعزيز تجارب آمنة ومناسبة لجميع الأعمار عبر الإنترنت.
تسعى هذه المناقشات إلى إيجاد توازن بين حماية الخصوصية وتعزيز الابتكار في مجال الذكاء الاصطناعي، مما يسلط الضوء على التحديات المستمرة التي تواجهها الشركات التكنولوجية في هذا السياق.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.