
تسليط الضوء على الانتقادات التي وجهها باوز باراك، أستاذ جامعي يعمل على السلامة في شركة OpenAI، تجاه نموذج Grok من شركة xAI، يكشف عن صراع عميق داخل صناعة الذكاء الاصطناعي. حيث وصف باراك إطلاق هذا النموذج بأنه “غير مسؤول تمامًا”، مشيرًا إلى نقص الشفافية والتقييمات الأمنية الضرورية.
لكن ما يكشفه المهندس السابق في OpenAI، كالفن فرينش-أوين، هو جانب آخر من القصة. إذ يؤكد أن العديد من الأشخاص في OpenAI يعملون بالفعل على السلامة، مع التركيز على تهديدات حقيقية مثل خطاب الكراهية والأسلحة البيولوجية. ومع ذلك، يشير إلى أن “معظم الأعمال التي تُنجز ليست منشورة”، مما يستدعي سؤالًا حول الشفافية في الأبحاث.
تظهر هذه الديناميكية التوتر بين الحاجة إلى سرعة الابتكار والضرورة الأخلاقية للتحرك بحذر. فرينش-أوين يشير إلى حالة من “الفوضى المنضبطة” في OpenAI، حيث ارتفع عدد الموظفين إلى أكثر من 3000 في عام واحد. هذا الضغط الناتج عن المنافسة مع Google وAnthropic يقود إلى ثقافة سرعة، ولكن أيضًا إلى سرية.
مثال على ذلك هو مشروع Codex، حيث تم تطويره في سبعة أسابيع فقط، مما يعكس تكاليف بشرية كبيرة. في بيئة تسير بهذه السرعة، يصبح من المفاجئ أن العمل المنهجي لنشر أبحاث السلامة يبدو وكأنه تشتيت للانتباه.
هذا التناقض ليس ناتجًا عن سوء نية، بل عن مجموعة من القوى المتداخلة. الضغط التنافسي، الثقافة التي تفضل الابتكارات السريعة، وصعوبة قياس النجاحات في السلامة، جميعها تلعب دورًا في هذا السياق.
للتقدم، يجب إعادة تعريف ما يعنيه شحن منتج، وجعل نشر حالة السلامة جزءًا أساسيًا من العملية. نحتاج إلى معايير صناعية تمنع أي شركة من التعرض للعقاب بسبب التزامها بالسلامة، وتحويل السلامة من ميزة إلى أساس مشترك.
الأهم من ذلك، يجب تعزيز ثقافة المسؤولية داخل مختبرات الذكاء الاصطناعي، حيث يشعر كل مهندس، وليس فقط قسم السلامة، بمسؤوليته. السباق نحو الذكاء الاصطناعي العام ليس حول من يصل أولاً، بل عن كيفية الوصول. الفائز الحقيقي لن يكون الشركة الأسرع، بل تلك التي تثبت أن الطموح والمسؤولية يمكن أن يسيرا قدمًا معًا.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.