مواجهة هلوسات الذكاء الاصطناعي: شركة ناشئة من معهد ماساتشوستس للتكنولوجيا تُعلّم الذكاء الاصطناعي الاعتراف بجهله
كتب: محمد شاهين

تُصبح “هلوسات” الذكاء الاصطناعيّ أكثر خطورة مع زيادة الثقة في النماذج لتقديم المعلومات واتخاذ القرارات الحاسمة.
جميعنا لديه ذلك الصديق المُتكبّر الذي لا يُقرّ بجهله، أو يلجأ إلى إعطاء نصائح مشكوك فيها بناءً على شيء قرأه على الإنترنت. هلوسات نماذج الذكاء الاصطناعيّ تشبه هذا الصديق، لكنّ هذا الصديق قد يكون مسؤولاً عن وضع خطة علاج سرطانك.
هنا تدخل Themis AI على الساحة. لقد نجحت هذه الشركة الناشئة من معهد ماساتشوستس للتكنولوجيا في تحقيق شيء يبدو بسيطًا من نظريًا لكنّه معقّد في الواقع، وهو تعليم أنظمة الذكاء الاصطناعيّ قول “لستُ متأكدًا من هذا”.
تُظهر أنظمة الذكاء الاصطناعيّ عادةً ثقةً مفرطة. تُمثّل منصة Capsa من Themis فحصًا لِواقعية الذكاء الاصطناعيّ، مُساعدةً النموذج على التعرّف على متى يُغامر في التخمين بدلاً من التأكّد.
تأسّست Themis AI في عام ٢٠٢١ من قبل أستاذة معهد ماساتشوستس للتكنولوجيا دانييلا روس، إلى جانب زميلي البحث السابقين ألكساندر أمينى وإيلاه أحمدي. وقد طوّرت الشركة منصة يمكن دمجها مع أيّ نظام ذكاء اصطناعيّ تقريبًا لِإبراز لحظات عدم التأكّد قبل أن تُؤدّي إلى أخطاء.
تُدرّب Capsa الذكاء الاصطناعيّ بشكلٍ أساسيّ على اكتشاف أنماط في كيفية معالجته للمعلومات التي قد تُشير إلى أنّه مُربك، أو مُتحيز، أو يعمل ببياناتٍ غير كاملة قد تُؤدّي إلى هلوسات.
منذ إطلاقها، تدّعي Themis أنّها ساعدت شركات الاتصالات على تجنّب أخطاء التخطيط الشبكي المُكلفة، و ساعدت شركات النفط والغاز في فهم بيانات الاستشعار الزلزالي المُعقّدة، ونشرت أبحاثًا حول إنشاء روبوتات دردشة لا تُختلق الأشياء بثقة.
يظلّ معظم الأشخاص غير مدركين لِمدى تكرار تخمين أنظمة الذكاء الاصطناعيّ بكلّ بساطة. مع قيام هذه الأنظمة بمهامّ أكثر حساسية، قد يكون لهذه التخمينات عواقب خطيرة. تُضيف برمجيات Themis AI طبقة من الوعي ذاتي كان يفتقر إليه.
تبدأ رحلة Themis AI في معالجة هلوسات الذكاء الاصطناعيّ قبل سنوات في مختبر أستاذة روس في معهد ماساتشوستس للتكنولوجيا، حيث كان الفريق يُحقّق في مشكلةٍ أساسية: كيف تُجعل آلة واعية بِقيودها الخاصة؟
في عام ٢٠١٨، موّلت تويوتا بحثهم في الذكاء الاصطناعيّ الموثوق للسّيارات ذاتية القيادة – وهو قطاع يمكن أن تكون فيه الأخطاء قاتلة. المخاطر عالية جدا عندما يجب على السيارات ذاتية القيادة التعرّف بدقة على المُشاة ومخاطر الطرق الأخرى.
جاء اختراقهم عندما طوّروا خوارزمية يمكنها اكتشاف التحيز العرقيّ والجنسيّ في أنظمة التعرّف على الوجوه. بدلاً من مجرد التعرّف على المشكلة، أصلحت نظامهم في الواقع المشكلة من خلال إعادة توازن بيانات التدريب – أي تعليم الذكاء الاصطناعيّ تصحيح أحكامه المُسبقة.
بحلول عام ٢٠٢١، أظهروا كيف يمكن أن يُحدث هذا النهج ثورة في اكتشاف الأدوية. يمكن لِأنظمة الذكاء الاصطناعيّ تقييم الأدوية المُحتملة، لكنّ – الأمر الحاسم – الإشارة إلى متى كانت تنبؤاتها بناءً على أدلةٍ قوية مقابل تخميناتٍ مُثقّفة أو هلوسات كاملة. أدركت صناعة الصيدلة إمكانية التوفير في الأموال والوقت من خلال التركيز فقط على مرشّحي الأدوية الذين كان الذكاء الاصطناعيّ واثقًا بهم.
ميزة أخرى للتكنولوجيا هي الأجهزة ذات قوة الحوسبة المُحدودة. تستخدم الأجهزة الطرفية نماذج أصغر لا يمكنها مُطابقة دقة النموذج الكبيرة التي تُشغّل على الخادم، لكنّ مع تكنولوجيا Themis، ستكون هذه الأجهزة أكثر قدرة على معالجة معظم المهامّ محليًا ولا تطلب المساعدة من الخوادم الكبيرة إلاّ عندما تواجه شيئًا مُعقّدًا.
يحتفظ الذكاء الاصطناعيّ بإمكاناتٍ هائلة لتحسين حياتنا، لكنّ هذه الإمكانات تأتي مع مخاطر حقيقية. مع زيادة دمج أنظمة الذكاء الاصطناعيّ في البنية التحتية الحساسة واتخاذ القرارات، قد تُثبت قدرة الاعتراف بِعدم التأكّد أهميتها البشرية – وأكثرها قيمة – Themis AI تُؤمّن تعلمهم هذه المهارة الحاسمة.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.