تقارير ومتابعات

قادة الأمن يدعون لتنظيم عاجل للذكاء الاصطناعي مثل DeepSeek

كتب -محمد شاهين

0:00

 

 

 

تتزايد المخاوف بين قادة الأمن المعلوماتي في مراكز العمليات الأمنية، خاصةً حول عملاق الذكاء الاصطناعي الصيني DeepSeek. بينما كان يُنظر إلى الذكاء الاصطناعي كعصر جديد للكفاءة والابتكار، فإنه يثير أيضًا ظلالًا طويلة ومظلمة على الأمن السيبراني.

 

دعوات للتنظيم العاجل

وفقًا لدراسة أجرتها شركة Absolute Security، يعتقد 81% من قادة الأمن في المملكة المتحدة أن هناك حاجة ملحة لتنظيم حكومي للذكاء الاصطناعي، خوفًا من أن يصبح DeepSeek عاملًا محفزًا لأزمة سيبرانية وطنية. تأتي هذه المخاوف كرد فعل مباشر على ممارسات معالجة البيانات وامكانية سوء الاستخدام.

 

قلق متزايد بشأن التهديدات السيبرانية

أكثر من ثلث قادة الأمن (34%) قاموا بالفعل بفرض حظر كامل على أدوات الذكاء الاصطناعي، بينما 30% أوقفوا عمليات نشر محددة داخل منظماتهم. يُظهر هذا التراجع استجابة عملية لمشكلة متصاعدة، حيث تواجه الشركات تهديدات معقدة.

 

الفجوة في الاستعداد الأمني

تتعلق المشكلة الرئيسية مع منصات مثل DeepSeek بقدرتها على كشف البيانات الحساسة للشركات واستغلالها من قبل مجرمي الإنترنت. يتوقع 60% من قادة الأمن زيادة مباشرة في الهجمات السيبرانية نتيجة لتزايد استخدام DeepSeek.

 

التحول في الرؤية

كان يُنظر إلى الذكاء الاصطناعي سابقًا كحل محتمل لمشاكل الأمن السيبراني، لكن 42% من قادة الأمن الآن يعتبرون أن الذكاء الاصطناعي يشكل تهديدًا أكبر من كونه مساعدة.

 

الحاجة إلى إطار تنظيمي

أعرب أندي وارد، نائب رئيس Absolute Security، عن قلقه من المخاطر الكبيرة التي تمثلها أدوات الذكاء الاصطناعي الناشئة مثل DeepSeek. وأكد على ضرورة اتخاذ إجراءات فورية لتعزيز المرونة السيبرانية وتكييف الأطر الأمنية لمواجهة هذه التهديدات.

 

استثمار الشركات في الذكاء الاصطناعي

على الرغم من هذا التوجه الدفاعي، لا تخطط الشركات للتراجع الكامل عن الذكاء الاصطناعي. بل تتبنى استراتيجية توقف استراتيجية، حيث تعترف الشركات بالإمكانات الهائلة للذكاء الاصطناعي وتستثمر في تبنيه بشكل آمن.

 

الخاتمة

يدعو قادة الأمن في المملكة المتحدة إلى شراكة قوية مع الحكومة لضمان تقدم الذكاء الاصطناعي بشكل آمن. يتطلب الطريق إلى الأمام وضع قواعد واضحة، ورقابة حكومية، وتدريب المتخصصين في الذكاء الاصطناعي. يجب أن تكون هذه الخطوات جزءًا من استراتيجية وطنية لإدارة المخاطر الأمنية المحتملة التي تطرحها أدوات الذكاء الاصطناعي.

 

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.
Powered by
Main Heading Goes Here
Sub Heading Goes Here

No, thank you. I do not want.
100% secure your website.