حروب الأمن السيبراني في عصر الذكاء الاصطناعي: هل تستطيع Google Cloud الصمود أمام تهديدات الغد؟
كتب -محمد شاهين

في مكتب جوجل العصيَّة في سنغافورة، وقف مارك جونستون، مدير مكتب CISO في Google Cloud لمنطقة آسيا والمحيط الهادئ، أمام جمع من الصحفيين المتخصصين في معرضٍ صادم: بعد خمسة عقود من التطور في مجال الأمن السيبراني، لا يزال المدافعون يخسرون المعركة. حيث كشفت إحدى الشرائح في عرضه أن 69% من الحوادث في اليابان ومنطقة آسيا والمحيط الهادئ، يتم إخطار المنظمات بحدوث اختراق لها من قبل جهات خارجية، مما يشير إلى فشل معظم الشركات في الكشف عن الانتهاكات بشكل ذاتي.
ما جرى خلال الطاولة المستديرة التي استمرت ساعة تحت عنوان “الأمن السيبراني في عصر الذكاء الاصطناعي” كان تقييماً صريحاً لكيفية محاولة تقنيات Google Cloud المعتمدة على الذكاء الاصطناعي عكس عقود من الإخفاقات الدفاعية، في الوقت الذي تمنح فيه نفس الأدوات المهاجمين قدرات غير مسبوقة.
جذور الأزمة: 50 عاماً من الإخفاق الدفاعي
أرجَع جونستون المشكلة إلى ملاحظة رائد الأمن السيبراني جيمس ب. أندرسون في عام 1972 التي مفادها أن “النظم التي نستخدمها لا تحمي نفسها حقاً” – وهو التحدي الذي استمر رغم التقدم التكنولوجي الهائل. وأكد أن المشكلات الأساسية لا تزال دون حل، حيث أن أكثر من 76% من الاختراقات تبدأ بالأساسيات؛ أخطاء التهيئة وتسريب بيانات الاعتماد.
سباق التسلح: الذكاء الاصطناعي بين المدافعين والمهاجمين
يصف البروفيسور كيفين كوران، الأستاذ المتخصص في الأمن السيبراني، المشهد الحالي بأنه “سباق تسلح محموم” تستخدم فيه الفرق الأمنية وقراصنة المعلومات أدوات الذكاء الاصطناعي على حد سواء. فبينما تستفيد المؤسسات من الذكاء الاصطناعي التوليدي لتحليل كميات هائلة من البيانات في الوقت الفعلي، يستفيد المهاجمون منه في تطوير هجمات التصيد وإنتاج البرمجيات الخبيثة ومسح الشبكات بحثاً عن الثغرات، مما يخلق ما يعرف بـ “معضلة المدافع”.
مبادرات Google Cloud: إعادة ميلان كفة الميزان
تدعي جوجل أن الذكاء الاصطناعي يمثل أفضل فرصة لقلب موازين هذه المعضلة وتمنح المدافعين الأفضلية الحاسمة. وتركز استراتيجيتها على عدد لا يحصى من حالات الاستخدام، بما في ذلك اكتشاف الثغرات، والاستخبارات التهديدية، وإنشاء الأكواد الآمنة، والاستجابة للحوادث.
مشروع “Big Sleep”: العثور على ما يفوته البشر
يعد هذا المشروع أحد أبرز الأمثلة على الدفاع المعزز بالذكاء الاصطناعي، حيث يستخدم نماذج اللغة الكبيرة (LLMs) لتحديد الثغرات في البرمجيات مفتوحة المصدر. وقد أعلن جونستون أن “Big Sleep” عثر على ثغرة أمنية في مكتبة مفتوحة المصدر باستخدام أدوات الذكاء الاصطناعي التوليدي، وهي المرة الأولى التي يُعثر فيها على ثغرة بواسطة خدمة ذكاء اصطناعي. وارتفع عدد الثغرات التي يعثر عليها المشهر من 20 إلى 47 ثغرة في شهر واحد فقط.
الطريق إلى التشغيل الآلي: بين الوعد والخطر
تتخيل جوجل مساراً تقدمياً يمر بأربع مراحل: اليدوي، والمساعَد، وشبه الآلي، ثم المستقل تماماً. ومع ذلك، يحذر الخبراء من مخاطر الاعتماد المفرط على الذكاء الاصطناعي الذي قد يتجاهل الحكم البشري ويخلق ثغرات جديدة، حيث لا توجد أطر قوية حتى الآن لضمان عدم العبث بالأدوات التي تعمل بها وكلاء الذكاء الاصطناعي.
الضوابط العملية: كبح الطبيعة غير المتوقعة للذكاء الاصطناعي
لمواجهة مشكلةgenerate responses غير ذات صلة أو غير مناسبة، طورت جوجل تقنية “Model Armor” التي تعمل كطبقة تصفية ذكية. تقوم هذه التقنية بفحص مخرجات النماذج للكشف عن المعلومات الشخصية، وتصفية المحتوى غير الملائم للسياق التجاري، وحظر الردود التي قد تكون ضارة بالعلامة التجارية.
التحدي الأكبر: الميزانيات المحدودة في مواجهة التهديدات المتصاعدة
حدد جونستون القيود المفروضة على الميزانيات باعتبارها التحدي الأساسي الذي يواجه مدراء الأمن المعلوماتي (CISOs) في منطقة آسيا والمحيط الهادئ، وذلك في وقت تتصاعد فيه حدة التهديدات الإلكترونية وتيرة الهجمات، مما يخلق عبئاً على الموارد لا تستطيع العديد من المنظمات تحمله.
الخلاصة: تفاؤل حذر مع الحاجة إلى إدارة متوازنة للمخاطر
يمثل دمج الذكاء الاصطناعي في الأمن السيبراني فرصة غير مسبوقة ومخاطر كبيرة في آن واحد. في حين تظهر تقنيات جوجل قدرات حقيقية في الكشف والتحليل والاستجابة التلقائية، فإن نفس هذه التقنيات تُسلح المهاجمين بقدرات محسّنة. النجاح لن يعتمد على التكنولوجيا نفسها، بل على كيفية تنفيذ هذه الأدوات بحكمة مع الحفاظ على الإشراف البشري ومعالجة أساسيات النظافة الأمنية. الثورة جارية، لكن الانتصار سيكون من نصيب الذين يوازنون بين الابتكار وإدارة المخاطر، وليس أولئك الذين ينشرون أحدث الخوارزميات فحسب.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.