تقنيات جديدة

ميتا تعزز أمان الذكاء الاصطناعي بأدوات Llama الجديدة: حماية شاملة للمطورين والمستخدمين

كتب: محمد شاهين

0:00

 

في خطوة تهدف إلى جعل تطوير واستخدام الذكاء الاصطناعي أكثر أمانًا للجميع، أطلقت ميتا (Meta) مجموعة جديدة من أدوات الأمان الخاصة بنماذج Llama AI، بالإضافة إلى موارد جديدة لمساعدة فرق الأمن السيبراني على تسخير الذكاء الاصطناعي للدفاع.

أدوات Llama Protection الجديدة للمطورين
يستطيع المطورون الذين يعملون مع عائلة نماذج Llama الآن الاستفادة من مجموعة مطورة من الأدوات، بما في ذلك:

Llama Guard 4: تطور لمرشح الأمان القابل للتخصيص من ميتا للذكاء الاصطناعي، وهو الآن متعدد الوسائط، مما يجعله قادرًا على فهم وتطبيق قواعد الأمان ليس فقط على النصوص، ولكن أيضًا على الصور. تم دمج هذه النسخة الجديدة في Llama API الجديدة من ميتا.
LlamaFirewall: أداة جديدة تعمل كمركز تحكم أمني لأنظمة الذكاء الاصطناعي، وتساعد في إدارة نماذج الأمان المختلفة التي تعمل معًا، وتتكامل مع أدوات الحماية الأخرى من ميتا. تهدف إلى اكتشاف ومنع المخاطر مثل هجمات “حقن المطالبات” وتوليد التعليمات البرمجية المشبوهة والسلوكيات الخطرة من ملحقات الذكاء الاصطناعي.
Llama Prompt Guard: تم تحسينه للكشف عن محاولات الهروب من القيود وحقن المطالبات. تم تقديم نسخة أصغر وأسرع، Prompt Guard 2 22M، والتي تقلل من زمن الوصول وتكاليف الحوسبة بنسبة تصل إلى 75% مقارنة بالنموذج الأكبر.
أدوات الذكاء الاصطناعي للدفاع السيبراني
لم تركز ميتا على بناة الذكاء الاصطناعي فحسب، بل أيضًا على المدافعين السيبرانيين، من خلال توفير أدوات مدعومة بالذكاء الاصطناعي لمكافحة الهجمات السيبرانية:

CyberSec Eval 4: مجموعة معايير مفتوحة المصدر تساعد المؤسسات على تقييم مدى جودة أنظمة الذكاء الاصطناعي في مهام الأمان. تتضمن هذه النسخة الجديدة أداتين:
CyberSOC Eval: يقيس مدى جودة أداء الذكاء الاصطناعي في بيئة مركز عمليات الأمن (SOC) الحقيقية.
AutoPatchBench: يختبر مدى جودة Llama وغيرها من أنظمة الذكاء الاصطناعي في العثور على الثغرات الأمنية في التعليمات البرمجية وإصلاحها تلقائيًا.
Llama Defenders Program: يوفر لشركات و مطوري البرامج الشركاء وصولاً خاصًا إلى مجموعة من حلول الذكاء الاصطناعي، بعضها مفتوح المصدر وبعضها في مرحلة الوصول المبكر، وتهدف جميعها إلى مواجهة تحديات أمنية مختلفة.
أدوات داخلية لمكافحة التهديدات
كجزء من هذا البرنامج، تشارك ميتا أداة أمان الذكاء الاصطناعي التي تستخدمها داخليًا:

Automated Sensitive Doc Classification Tool: يصنف المستندات تلقائيًا ويضع عليها ملصقات أمان لمنع تسرب المعلومات الحساسة أو إدخالها عن طريق الخطأ في نظام الذكاء الاصطناعي.
Llama Generated Audio Detector and Llama Audio Watermark Detector: يتم مشاركة هذه الأدوات مع الشركاء لمساعدتهم على اكتشاف الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في المكالمات الاحتيالية المحتملة.
الخصوصية في صميم التطوير
أعلنت ميتا عن تقنية جديدة قيد التطوير لـ WhatsApp تسمى “المعالجة الخاصة” (Private Processing)، والتي تتيح للذكاء الاصطناعي القيام بأشياء مفيدة مثل تلخيص الرسائل غير المقروءة أو المساعدة في صياغة الردود، ولكن دون أن تتمكن ميتا أو WhatsApp من قراءة محتوى تلك الرسائل.

تعتبر هذه الإعلانات علامة واضحة على أن ميتا تولي اهتمامًا جديًا لأمن الذكاء الاصطناعي، وتسعى جاهدة لتوفير أدوات أفضل للمجتمع التقني لبناء أنظمة آمنة والدفاع عنها بفعالية.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.

مقالات ذات صلة

زر الذهاب إلى الأعلى

Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.
Powered by
Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.