“الشفافية في الذكاء الاصطناعي: بين الواقع ومخاطر التضليل تحت شعار “الانفتاح
كتب_ محمد شاهين

مع تركيز صناعة الذكاء الاصطناعي على الشفافية والأمان، تتصاعد النقاشات حول المعنى الحقيقي لمصطلح “الانفتاح” في هذا المجال. وقد أثار خبراء من شركة أمن البرمجيات مفتوحة المصدر “Endor Labs” نقاشات مهمة حول هذه القضايا الملحة.
أكد أندرو ستيفل، المدير الأول لتسويق المنتجات في Endor Labs، على أهمية تطبيق الدروس المستفادة من أمن البرمجيات على أنظمة الذكاء الاصطناعي. وأشار إلى أن “أمرًا تنفيذيًا صدر عن الحكومة الأمريكية في عام 2021 لتحسين الأمن السيبراني يتطلب من المنظمات تقديم قائمة تفصيلية بمكونات البرمجيات (SBOM) لكل منتج يتم بيعه للوكالات الحكومية الفيدرالية.”
وتعتبر قائمة SBOM بمثابة جرد للمكونات مفتوحة المصدر داخل المنتج، مما يساعد في اكتشاف الثغرات الأمنية. وأوضح ستيفل أن “تطبيق هذه المبادئ نفسها على أنظمة الذكاء الاصطناعي هو الخطوة المنطقية التالية، وأضاف أن “توفير شفافية أفضل للمواطنين وموظفي الحكومة لا يعزز الأمان فحسب، بل يوفر أيضًا رؤية واضحة حول مجموعات البيانات، والتدريب، والأوزان، والمكونات الأخرى للنموذج.”
ما معنى أن يكون نموذج الذكاء الاصطناعي “مفتوحًا”؟
أضاف جوليان سوبرييه، المدير الأول للمنتجات في Endor Labs، سياقًا مهمًا للنقاش الدائر حول شفافية الذكاء الاصطناعي و”الانفتاح”. وقام بتفكيك التعقيدات الكامنة في تصنيف أنظمة الذكاء الاصطناعي على أنها مفتوحة حقًا.
وأوضح سوبرييه أن “نموذج الذكاء الاصطناعي يتكون من العديد من المكونات: مجموعة التدريب، والأوزان، والبرامج المستخدمة لتدريب واختبار النموذج، وغيرها. ومن المهم أن تكون السلسلة الكاملة متاحة كمصدر مفتوح حتى يُطلق على النموذج أنه ‘مفتوح’. وهذا تعريف واسع حتى الآن.”
وأشار إلى عدم وجود اتساق بين اللاعبين الرئيسيين في هذا المجال، مما أدى إلى ارتباك حول المصطلح. وقال: “بدأت المخاوف حول تعريف ‘المفتوح’ مع OpenAI، وتتصدر Meta الأخبار الآن بسبب نموذجها LLAMA، على الرغم من أنه ‘أكثر انفتاحًا’. نحن بحاجة إلى فهم مشترك لما يعنيه النموذج المفتوح. يجب أن ننتبه إلى أي محاولات للتضليل تحت شعار ‘الانفتاح’، كما حدث مع البرمجيات المجانية مقابل البرمجيات مفتوحة المصدر.”
وحذر سوبرييه من ممارسة “التضليل تحت شعار الانفتاح” (open-washing)، حيث تدعي المنظمات الشفافية بينما تفرض قيودًا. وأضاف: “مع تقديم مزودي الخدمات السحابية نسخًا مدفوعة من مشاريع مفتوحة المصدر (مثل قواعد البيانات) دون المساهمة في تطويرها، لاحظنا تحولًا في العديد من المشاريع مفتوحة المصدر: لا يزال الكود المصدري مفتوحًا، ولكن تمت إضافة العديد من القيود التجارية.”
DeepSeek تعزز شفافية الذكاء الاصطناعي
اتخذت DeepSeek، إحدى الشركات الصاعدة في صناعة الذكاء الاصطناعي، خطوات لمعالجة بعض هذه المخاوف من خلال جعل أجزاء من نماذجها وكودها مفتوحة المصدر. وقد تم الإشادة بهذه الخطوة لتعزيز الشفافية وتوفير رؤى أمنية.
وقال أندرو ستيفل: “أطلقت DeepSeek بالفعل النماذج وأوزانها كمصدر مفتوح. هذه الخطوة التالية ستوفر شفافية أكبر في خدماتها المستضافة، وستعطي رؤية حول كيفية ضبطها وتشغيل هذه النماذج في الإنتاج.”
وأضاف أن هذه الشفافية لها فوائد كبيرة، حيث ستجعل من السهل على المجتمع مراجعة أنظمتها بحثًا عن المخاطر الأمنية، كما ستسمح للأفراد والمنظمات بتشغيل نسخهم الخاصة من DeepSeek في الإنتاج.
الاتجاه نحو الذكاء الاصطناعي مفتوح المصدر
تتماشى مبادرات DeepSeek مع الاتجاه الأوسع نحو الذكاء الاصطناعي مفتوح المصدر. وكشف تقرير صادر عن IDC أن 60% من المنظمات تختار نماذج الذكاء الاصطناعي مفتوحة المصدر بدلًا من البدائل التجارية لمشاريع الذكاء الاصطناعي التوليدي (GenAI).
وأظهرت أبحاث Endor Labs أن المنظمات تستخدم في المتوسط ما بين 7 إلى 21 نموذجًا مفتوح المصدر لكل تطبيق. والسبب واضح: الاستفادة من أفضل نموذج للمهام المحددة والتحكم في تكاليف واجهات برمجة التطبيقات (API).
وحذر سوبرييه من أن المخاطر قد تمتد إلى بيانات التدريب: “يجب أن تكون الشركات واثقة من أن مجموعات البيانات المستخدمة لتدريب النماذج اللغوية الكبيرة (LLM) لم يتم تسميمها أو احتوائها على معلومات خاصة حساسة.”
بناء منهجية منهجية لإدارة مخاطر نماذج الذكاء الاصطناعي
مع تسارع اعتماد الذكاء الاصطناعي مفتوح المصدر، أصبحت إدارة المخاطر أكثر أهمية من أي وقت مضى. وحدد ستيفل منهجية منهجية تتمحور حول ثلاث خطوات رئيسية: الاكتشاف، والتقييم، والاستجابة.
وقال: “المفتاح هو إيجاد التوازن الصحيح بين تمكين الابتكار وإدارة المخاطر. نحن بحاجة إلى منح فرق هندسة البرمجيات الحرية للتجربة، ولكن مع توفير رؤية كاملة. يجب أن يكون لدى فريق الأمن الرؤية والبصيرة للتصرف.”
وأكد سوبرييه على ضرورة تطوير أفضل الممارسات لبناء واعتماد نماذج الذكاء الاصطناعي بأمان. ودعا إلى وضع منهجية مشتركة لتقييم النماذج عبر معايير مثل الأمان، والجودة، والمخاطر التشغيلية، والانفتاح.
لضمان نمو مسؤول للذكاء الاصطناعي، يجب على الصناعة اعتماد ضوابط تعمل عبر عدة محاور، بما في ذلك نماذج SaaS، وواجهات برمجة التطبيقات، والنماذج مفتوحة المصدر. وحذر سوبرييه من الرضا عن النفس في مواجهة التقدم السريع للذكاء الاصطناعي، داعيًا المجتمع إلى بناء أفضل الممارسات لتطوير نماذج آمنة ومفتوحة.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي