برامج متنوعة

خداع الـDeepfake: سرقة هوية امرأة هندية لإنشاء محتوى إباحي بالذكاء الاصطناعي

كتبت: أمل علوي

0:00

 

في حادثة مثيرة للقلق، تمكنت امرأة هندية تُدعى “بابيدول أرشي” من جذب انتباه الملايين عبر إنستغرام، لكن ما لم يعرفه الكثيرون هو أن هويتها قد سُرقت لإنشاء محتوى إباحي باستخدام تقنية الـDeepfake.

القصة وراء “بابيدول أرشي”
ازدادت شهرة حساب “بابيدول أرشي” بشكل سريع، حيث تضاعف عدد متابعيه إلى 1.4 مليون بعد انتشار مقاطع فيديو وصور لها. ومع ذلك، اتضح أن هذه الشخصية لم تكن سوى ابتكار رقمي، حيث استخدم أحد الأشخاص، يُدعى براتيم بورا، صورًا خاصة لامرأة حقيقية تُدعى سانشي، لخلق هذا الحساب الوهمي.

التحقيقات والاعتقالات
بدأت القصة تتكشف عندما قدم شقيق سانشي بلاغًا للشرطة بعد أن لاحظ انتشار المعلومات عن “بابيدول أرشي”. وقد قُبض على براتيم بورا، الذي استخدم صور سانشي لإنشاء حساب مزيف بهدف الانتقام منها.

التقنية المستخدمة
استعمل بورا أدوات الذكاء الاصطناعي مثل ChatGPT وDzine لإنشاء نسخة مزيفة من سانشي، حيث قام بدمج صورها الحقيقية مع تقنيات الـDeepfake. وبفضل هذه التقنيات، تمكّن من إضافة محتوى إباحي إلى الحساب، مما ساهم في زيادة شعبيته.

العواقب النفسية والاجتماعية
سانشي، التي لا تمتلك حسابات على وسائل التواصل الاجتماعي، لم تعرف عن هذا الحساب إلا بعد أن بدأت وسائل الإعلام في تغطيته. وقد تأثرت بشدة من هذه الحادثة، لكنها تتلقى الآن الدعم النفسي وتعمل على التعافي.

أهمية القضية
تسلط هذه الحادثة الضوء على التحديات المرتبطة باستخدام تقنيات الذكاء الاصطناعي في خلق محتوى مزيف، حيث يواجه الأفراد خطر التعرض للاعتداء على هويتهم وخصوصيتهم. بينما لم تستجب شركة ميتا للاستفسارات حول القضية، فإنها عادةً ما تمنع نشر المحتوى الإباحي.

يبقى السؤال: كيف يمكن حماية الأفراد من هذه الانتهاكات في عصر الذكاء الاصطناعي المتزايد؟

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.
Powered by
Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.