تقنيات جديدة

التحقق من الهوية شرط مُحتمل للوصول إلى نماذج OpenAI المُتقدمة

كتب: محمد شاهين

0:00

 

أعلنت OpenAI مؤخرًا عن إمكانية تطبيق عملية تحقق من الهوية لِلمؤسسات التي ترغب في الوصول إلى نماذج الذكاء الاصطناعي المُتقدمة عبر واجهة برمجة التطبيقات (API). وتُسمّى هذه العملية “التحقق من الهوية للمؤسسات” (Verified Organization)، وهي تُمثّل طريقةً جديدةً لِفتح الوصول إلى أكثر النماذج وَالقدرات تقدمًا على منصة OpenAI.

تتطلّب عملية التحقق من الهوية إثباتًا بهوية حكومية من واحدة من الدول التي تدعمها واجهة برمجة تطبيقات OpenAI. يُمكن لِلهوية واحدة التحقق من مؤسسة واحدة فقط كلّ 90 يومًا، وليس كلّ المؤسسات مؤهلةً للتحقق، حسب ما أعلنت OpenAI.

أوضحت OpenAI أنّ هذا الإجراء يُهدف إلى التخفيف من الاستخدام غير الآمن للذكاء الاصطناعي، مع استمرار إتاحة الوصول إلى النماذج المُتقدمة لِلمجتمع الأوسع من المُطوّرين. ويُمكن أن يكون هذا الإجراء مُوجّهًا أيضًا لِمنع سرقة الملكية الفكرية.

وقد أفادت تقارير أنّ OpenAI تحقّق في إمكانية تسريب كمياتٍ كبيرة من البيانات من خلال واجهة برمجة التطبيقات في أواخر عام 2024، ربما لِتدريب نماذج ذكاء اصطناعي أخرى، وهو ما يُمثّل انتهاكًا لِشروط OpenAI.

يُشير تطبيق هذا الإجراء إلى زيادة التركيز على الأمن حول منتجات OpenAI مع تطوّرها وتعقّدها. وقد نشرت OpenAI عدة تقارير حول جهودها لِكشف وِالتخفيف من الاستخدام الخبيث لنماذجها، بما في ذلك من قِبل جماعات تُزعم أنّها مُتواجدة في كوريا الشمالية. وقد أغلقت OpenAI الوصول إلى خدماتها في الصين في الصيف الماضي.

في الختام، يُمثّل تطبيق عملية التحقق من الهوية خطوةً مُهمةً من OpenAI لِضمان الاستخدام الآمن والمسؤول لِنماذج الذكاء الاصطناعي المُتقدمة.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.

مقالات ذات صلة

زر الذهاب إلى الأعلى

Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.
Powered by
Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.