برامج متنوعة

“مُخلفات” الذكاء الاصطناعيّ تُشوّه الواقع: هل نحنُ نمشي نحو كارثةٍ مُحتملة؟

كتب: محمد شاهين

0:00

 

يُحذّر تقريرٌ جديدٌ من خطورة انتشار ما يُسمّى بـ”مُخلفات الذكاء الاصطناعيّ” (AI slop)، وهي محتوى رقميّ منخفض الجودة يُنتج بمساعدة الذكاء الاصطناعيّ مع تدخّل بشريّ ضئيل. ويُؤدّي هذا الانتشار إلى تشويهٍ للواقع وتداخُلٍ بينه وبين المحتوى المُصنّع، مما يُثير مخاوفٍ كبيرة.

ويتمثّل هذا المحتوى في صورٍ وفيديوهاتٍ مُصنّعةٍ، بعضها تافهٌ ولا معنى له، مثل صورٍ كارتونيةٍ لشخصياتٍ مشهورةٍ، ومناظر طبيعيةٍ خيالية، وحيواناتٍ مُشبّهةٍ بالبشر. ويشمل أيضًا محتوى جنسيًا مُصنّعًا، يُمثّل النساء بطريقةٍ مُشوّهة. ويُلاحظ أنّ هذا المحتوى ينتشر بشكلٍ واسعٍ على منصّات التواصل الاجتماعيّ، مثل وسائل التواصل الاجتماعي وواتساب.

ولكنّ الأمر لا يتوقّف عند هذا الحدّ، فقد ظهرت فئةٌ جديدةٌ من “مُخلفات الذكاء الاصطناعيّ” تتمثّل في محتوى سياسيّ مُزيّف، يُروّج لأفكارٍ مُتطرّفة. فمثلاً، تُظهر بعض فيديوهات اليوتيوب سيناريوهاتٍ مُختلقةً يُسيطر فيها مسؤولون من حزبٍ معيّن على قوى ليبرالية. وقد انتشر هذا النوع من المحتوى على نطاقٍ عالميّ، مما يُثير مخاوفٍ من استخدامه للتأثير على الرأي العام.

ويُشدّد التقرير على ضرورة التوعية بمخاطر “مُخلفات الذكاء الاصطناعيّ”، وتطوير آلياتٍ للكشف عنها ومنع انتشارها. ويُؤكّد على أهمية التمييز بين المحتوى الحقيقيّ والمُصنّع، والتأكد من مصداقية المعلومات قبل نشرها أو مشاركتها. ويُحذّر من أنّ استمرار تجاهل هذه المشكلة قد يُؤدّي إلى كارثةٍ حقيقية.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.

مقالات ذات صلة

زر الذهاب إلى الأعلى

Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.
Powered by
Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.