
تُشكّل خصوصية البيانات تحديًا كبيرًا في مجال الذكاء الاصطناعي، ففي حين تُوجد تقنيات أمنية لحماية بيانات المُستخدمين الحساسة من المُهاجمين، إلا أنّها غالباً ما تُؤثّر على دقة نماذج الذكاء الاصطناعي. لكن باحثين من معهد ماساتشوستس للتكنولوجيا (MIT) طوّروا إطارًا جديدًا يُحافظ على أداء نموذج الذكاء الاصطناعي مع ضمان سلامة البيانات الحساسة، مثل الصور الطبية أو السجلات المالية، من المُهاجمين.
يُعتمد الإطار الجديد على مقياس خصوصية جديد يُسمى “خصوصية PAC”، وهو أكثر كفاءةً من النسخ السابقة، ويُحسّن التوازن بين الدقة والخصوصية. كما يُقدّم قالبًا رسميًا يُمكن استخدامه لتأمين أيّ خوارزمية تقريبًا دون الحاجة إلى الوصول إلى تفاصيل عملها الداخلية.
استخدم الفريق نسخةً محسّنة من “خصوصية PAC” لتأمين عدة خوارزميات كلاسيكية لِتحليل البيانات ومهام التعلّم الآلي. كما أظهروا أنّ الخوارزميات “الأكثر استقرارًا” أسهل في تأمينها بهذه الطريقة. فالخوارزمية المُستقرة تُبقي تنبؤاتها متسقة حتى عندما تُعدّل بيانات تدريبها قليلًا. وتُساعد الاستقرارية الأكبر الخوارزمية على إجراء تنبؤاتٍ أكثر دقة على البيانات غير المُشاهدة سابقا.
يقول الباحثون إنّ زيادة كفاءة إطار “خصوصية PAC” الجديد، والقالب المكوّن من أربع خطوات لِتنفيذه، سيُسهّل نشر هذه التقنية في الحياة الواقعية.
يُعتمد هذا الإطار على إضافة ضوضاء عشوائية إلى النموذج لجعل استخراج بيانات التدريب الأصلية أكثر صعوبة. لكن النسخة الجديدة من “خصوصية PAC” تُقدّر الكمية الأقل من الضوضاء اللازمة لِتحقيق مستوى مُحدد من الخصوصية، مُحسّنةً من دقة الخوارزمية. كما أظهرت الاختبارات أنّ ضمانات الخصوصية ظلت قوية بغض النظر عن الخوارزميات المُختبرة.
في الختام، يُمثّل هذا التطوير خطوةً مُهمةً نحو تعزيز خصوصية بيانات التعلّم الآلي مع الحفاظ على دقة النموذج، مُفتحًا آفاقًا جديدة في تطبيقات الذكاء الاصطناعي الحساسة.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.