
أظهرت دراسة حديثة أن نماذج الدردشة الكبرى، مثل ChatGPT من OpenAI وCopilot من Microsoft وGemini من Google، تعيد إنتاج دعاية الحزب الشيوعي الصيني (CCP) عندما يتم طرح مواضيع حساسة. حسب تقرير مشروع الأمن الأمريكي، فإن جهود الرقابة والمعلومات المضللة التي ينفذها الحزب الشيوعي قد تسللت إلى بيانات تدريب الذكاء الاصطناعي، مما يؤدي إلى استجابات تتماشى مع الروايات السياسية للدولة الصينية.
تحليل النماذج المعنية
حلل الباحثون خمسة من أشهر نماذج الدردشة التي تعتمد على نموذج اللغة الكبير (LLM)، حيث أظهرت جميعها في بعض الأحيان استجابات تشير إلى تحيز ورقابة مرتبطة بالحزب الشيوعي. وقد وُصف نموذج Copilot بأنه الأكثر احتمالًا لعرض دعاية الحزب الشيوعي كمعلومات موثوقة.
تأثير البيانات على النتائج
تعود المشكلة إلى مجموعات البيانات الضخمة التي تُستخدم في تدريب هذه النماذج. تتعلم نماذج اللغة من معلومات متاحة على الإنترنت، حيث يقوم الحزب الشيوعي بتوجيه الرأي العام من خلال تكتيكات مثل “الإنتاج الزائف”.
تتطلب القوانين الصينية من نماذج الدردشة الالتزام بالقيم الاشتراكية الأساسية، مما يجعل الحفاظ على الحياد أمرًا صعبًا للشركات مثل Microsoft، التي تدير مراكز بيانات في الصين.
اختلافات في الاستجابة حسب اللغة
كشفت التحقيقات عن اختلافات كبيرة في كيفية استجابة نماذج الدردشة بناءً على لغة الطلب. فعندما سُئلت باللغة الإنجليزية عن أصول جائحة COVID-19، قدمت نماذج مثل ChatGPT وGemini رواية متسقة مع النظرية العلمية، لكن عند طرح السؤال باللغة الصينية، تم وصف الجائحة على أنها “لغز غير محلول”.
قضايا حرية هونغ كونغ والمجزرة في تيانانمن
عند مناقشة حرية هونغ كونغ، كانت الردود باللغة الإنجليزية أكثر انتقادًا، بينما في اللغة الصينية تم تكييف الردود لتتماشى مع روايات الحزب. وفيما يتعلق بمجزرة تيانانمن، استخدمت معظم النماذج مصطلحات مخففة في الردود الصينية، حيث تم الاستغناء عن كلمة “مجزرة”.
الحاجة الملحة لتوفير بيانات موثوقة
يحذر تقرير مشروع الأمن الأمريكي من أن البيانات التي يتناولها نموذج الذكاء الاصطناعي تحدد انحيازه، مما يؤثر على قيمه وأحكامه. ويشدد التقرير على ضرورة توسيع الوصول إلى بيانات تدريب موثوقة وصحيحة لتجنب العواقب الكارثية.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.