تقنيات جديدة

أنثروبيك تكشف عن استراتيجيتها للسلامة في الذكاء الاصطناعي

كتب -محمد شاهين

0:00

 

كشفت شركة أنثروبيك عن استراتيجيتها للسلامة بهدف الحفاظ على نموذجها الشهير للذكاء الاصطناعي “كلود” مفيدًا، وتجنب تعزيز الأضرار المحتملة. هذه الاستراتيجية تعتمد على فريق “الضمانات” الذي يتكون من خبراء في السياسة، وعلماء بيانات، ومهندسين، ومحللي تهديدات، يعرفون كيف يفكر الفاعلون السيئون.

 

هيكل الدفاع متعدد الطبقات

تعتبر نهج أنثروبيك في السلامة أكثر من مجرد جدار دفاعي واحد؛ بل هو أشبه بقصر متعدد الطبقات من الدفاعات. يبدأ هذا الجهد بوضع قواعد الاستخدام وينتهي بمراقبة التهديدات الجديدة.

 

سياسة الاستخدام

تشمل سياسة الاستخدام مجموعة من القواعد التي تحدد كيفية استخدام “كلود” وما لا يجب القيام به. توفر هذه السياسة إرشادات واضحة حول قضايا كبيرة مثل نزاهة الانتخابات وسلامة الأطفال، بالإضافة إلى استخدام “كلود” بشكل مسؤول في مجالات حساسة مثل المالية والرعاية الصحية.

 

إطار العمل الموحد للأذى

لتشكيل هذه القواعد، يستخدم الفريق “إطار العمل الموحد للأذى” الذي يساعدهم في التفكير في أي تأثيرات سلبية محتملة، سواء كانت جسدية أو نفسية أو اقتصادية. كما يتم استشارة خبراء خارجيين لإجراء اختبارات ضعيفة السياسة، حيث يحاول هؤلاء الخبراء “كسر” “كلود” من خلال طرح أسئلة صعبة لتحديد نقاط الضعف.

 

التدريب على القيم الصحيحة

يعمل فريق الضمانات في أنثروبيك بشكل وثيق مع المطورين الذين يقومون بتدريب “كلود” لبناء السلامة منذ البداية. وهذا يتضمن تحديد ما ينبغي على “كلود” فعله وما لا ينبغي عليه فعله، ودمج هذه القيم في النموذج نفسه.

 

تقييمات السلامة والمخاطر

قبل إطلاق أي نسخة جديدة من “كلود”، يتم إخضاعها لثلاثة أنواع رئيسية من التقييمات:

 

تقييمات السلامة: لاختبار ما إذا كان “كلود” يلتزم بالقواعد خلال المحادثات المعقدة.

تقييمات المخاطر: لاختبار المجالات ذات المخاطر العالية مثل التهديدات السيبرانية.

تقييمات التحيز: لضمان تقديم “كلود” إجابات موثوقة ودقيقة للجميع، مع فحص التحيزات السياسية أو العرقية.

مراقبة السلامة بعد الإطلاق

بعد إطلاق “كلود”، تستخدم أنثروبيك مزيجًا من الأنظمة الآلية والمراجعين البشريين لمراقبة أي مشكلات. تتضمن الأدوات الرئيسية مجموعة من نماذج “كلود” المتخصصة التي تم تدريبها لاكتشاف انتهاكات السياسة في الوقت الحقيقي.

 

التعاون مع المجتمع

تدرك أنثروبيك أن ضمان سلامة الذكاء الاصطناعي ليست مهمة يمكنهم القيام بها بمفردهم. لذلك، يعملون بنشاط مع الباحثين وصانعي السياسات والجمهور لبناء أفضل تدابير الحماية الممكنة.

 

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.

مقالات ذات صلة

زر الذهاب إلى الأعلى

Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.
Powered by
Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.