
يَعِد الذكاء الاصطناعي بتسهيل حياتنا جميعًا، ومع سهولة الاستخدام الكبيرة يأتي احتمال تحقيق أرباح كبيرة. وتعتقد الأمم المتحدة أن الذكاء الاصطناعي قد يصبح سوقًا عالميًا بقيمة 4.8 تريليون دولار بحلول عام 2033 – حجمه يقارب حجم اقتصاد ألمانيا.
ولكن دعونا ننسى عام 2033: في الوقت الحاضر، يُعزز الذكاء الاصطناعي بالفعل التحول في قطاعات متنوعة مثل الخدمات المالية، والتصنيع، والرعاية الصحية، والتسويق، والزراعة، والتجارة الإلكترونية. سواء كانت “وكلاء” خوارزمية مستقلة تدير محفظة استثماراتك أو أنظمة تشخيصية بالذكاء الاصطناعي تكشف عن الأمراض في وقت مبكر، فإن الذكاء الاصطناعي يُغيّر بشكل أساسي طريقة حياتنا وعملنا.
لكن الشكوك تتزايد حول الذكاء الاصطناعي – لقد شاهدنا فيلم Terminator 2 مرات كافية لنكون حذرين للغاية. السؤال الذي يستحق طرحه إذن، هو كيف نضمن الثقة مع تكامل الذكاء الاصطناعي بشكل أعمق في حياتنا اليومية؟
المخاطر عالية: يُسلّط تقرير حديث من Camunda الضوء على حقيقة غير مريحة: أكثرية المنظمات (84%) تُعزى مشاكل الامتثال التنظيمي إلى نقص الشفافية في تطبيقات الذكاء الاصطناعي. إذا لم تتمكن الشركات من عرض الخوارزميات – أو أسوأ من ذلك، إذا كانت الخوارزميات تُخفي شيئًا ما – يُترك المستخدمون في الظلام تمامًا. أضف إلى ذلك عوامل التحيز المنهجي، والأنظمة غير المُختبرة، ومجموعة من اللوائح، وستحصل على وصفة لعدم الثقة على نطاق واسع.
الشفافية: فتح صندوق أسود الذكاء الاصطناعي
بالرغم من قدراتها المُذهلة، غالبًا ما تكون خوارزميات الذكاء الاصطناعي مُعتمة، مما يُترك المستخدمين غير مُدركين لكيفية اتخاذ القرارات. هل تم رفض طلب القرض الذي يعمل بالذكاء الاصطناعي بسبب درجة ائتمانك – أم بسبب تحيز الشركة غير المُعلن؟ بدون شفافية، يمكن للذكاء الاصطناعي أن يُحقق أهداف مالكه، بينما يظل المستخدم غير مدرك، وما زال يُعتقد أنه يُنفذ أوامره.
أحد الحلول الواعدة هو وضع العمليات على سلسلة الكتل، مما يجعل الخوارزميات قابلة للتحقق والفحص من قبل أي شخص. هنا يأتي دور تقنية الويب3. نرى بالفعل شركات ناشئة تستكشف الإمكانيات. تقدم Space and Time (SxT)، وهي شركة تدعمها Microsoft، خلاصات بيانات مُقاومة للتلاعب تتكون من طبقة حوسبة قابلة للتحقق، لذلك يمكن لـ SxT ضمان أن المعلومات التي يعتمد عليها الذكاء الاصطناعي حقيقية ودقيقة وغير مُلوّثة من قبل كيان واحد.
يضمن مُبرهن Proof of SQL الجديد من Space and Time أن الاستعلامات تُحسب بدقة مقابل بيانات غير مُعبث بها، مما يُثبت الحسابات في سجلات سلسلة الكتل، وقدرته على القيام بذلك بشكل أسرع بكثير من zkVMs ومعالجات المُعالجة المتطورة. في جوهره، تُساعد SxT في بناء الثقة في مدخلات الذكاء الاصطناعي دون الاعتماد على قوة مركزية.
إثبات إمكانية الوثوق بالذكاء الاصطناعي
الثقة ليست صفقة لمرة واحدة؛ إنها تُكتسب بمرور الوقت، على غرار مطعم يحافظ على معاييره للاحتفاظ بنجمته من ميشلان. يجب تقييم أنظمة الذكاء الاصطناعي باستمرار من حيث الأداء والسلامة، خاصة في المجالات عالية المخاطر مثل الرعاية الصحية أو القيادة الذاتية. إن ذكاء اصطناعي من الدرجة الثانية يصف الأدوية الخاطئة أو يصطدم بالمارة هو أكثر من مجرد خلل، إنه كارثة.
هذا هو جمال النماذج مفتوحة المصدر والتحقق على السلسلة من خلال استخدام السجلات الثابتة، مع ضمانات حماية الخصوصية المُدمجة من خلال استخدام التشفير مثل براهين المعرفة الصفرية (ZKPs). ومع ذلك، فإن الثقة ليست الاعتبار الوحيد: يجب على المستخدمين معرفة ما يمكن للذكاء الاصطناعي فعله وما لا يستطيع فعله، لتحديد توقعاتهم بشكل واقعي. إذا اعتقد المستخدم أن الذكاء الاصطناعي معصوم من الخطأ، فمن المرجح أن يثق في النتائج الخاطئة.
حتى الآن، ركّزت رواية تعليم الذكاء الاصطناعي على مخاطره. من الآن فصاعدًا، يجب أن نحاول تحسين معرفة المستخدمين لقدرات الذكاء الاصطناعي ومحدودياته، لتحسين تمكين المستخدمين وليس استغلالهم.
الامتثال والمساءلة
كما هو الحال مع العملات المشفرة، تأتي كلمة الامتثال كثيرًا عند مناقشة الذكاء الاصطناعي. لا يحصل الذكاء الاصطناعي على إعفاء بموجب القانون واللوائح المختلفة. كيف يجب محاسبة خوارزمية بلا وجه؟ قد تكمن الإجابة في بروتوكول سلسلة الكتل النمطية Cartesi، والذي يضمن حدوث استنتاج الذكاء الاصطناعي على السلسلة.
تسمح آلة Cartesi الافتراضية للمطورين بتشغيل مكتبات الذكاء الاصطناعي القياسية – مثل TensorFlow و PyTorch و Llama.cpp – في بيئة تنفيذ لامركزية، مما يجعلها مناسبة لتطوير الذكاء الاصطناعي على السلسلة. بعبارة أخرى، مزيج من شفافية سلسلة الكتل وحوسبة الذكاء الاصطناعي.
الثقة من خلال اللامركزية
يُظهر تقرير الأمم المتحدة الأخير حول التكنولوجيا والابتكار أنه بينما يُوعد الذكاء الاصطناعي بالازدهار والابتكار، إلا أن تطويره يُخاطر “بتعميق الفجوات العالمية”. قد يكون اللامركزية هو الحل، وهو حل يُساعد الذكاء الاصطناعي على التوسع ويُرسّخ الثقة فيما هو موجود تحت الغطاء.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.