
أعلن معهد أبحاث الذكاء الاصطناعي غير الربحي Ai2 يوم الخميس عن إطلاق Olmo 2 1B، وهو نموذج بمعيار 1 مليار، يدعي المعهد أنه يتفوق على النماذج المماثلة من Google و Meta و Alibaba في العديد من الاختبارات القياسية. وتعتبر هذه المعايير، التي يشار إليها أحيانًا بالأوزان، المكونات الداخلية للنموذج التي توجه سلوكه.
يتوفر Olmo 2 1B بترخيص Apache 2.0 مفتوح المصدر على منصة تطوير الذكاء الاصطناعي Hugging Face. وعلى عكس معظم النماذج، يمكن تكرار Olmo 2 1B من الصفر، حيث قدم Ai2 التعليمات البرمجية ومجموعات البيانات (Olmo-mix-1124 و Dolmino-mix-1124) المستخدمة لتطويره.
قد لا تكون النماذج الصغيرة بنفس قوة نظيراتها العملاقة، ولكن الأهم من ذلك أنها لا تتطلب أجهزة قوية لتشغيلها. وهذا يجعلها في متناول المطورين والهواة الذين يتعاملون مع قيود الأجهزة المتطورة والأجهزة الاستهلاكية.
شهدت الأيام القليلة الماضية إطلاق مجموعة من النماذج الصغيرة، بدءًا من عائلة Phi 4 للاستدلال من Microsoft إلى Qwen’s 2.5 Omni 3B. يمكن تشغيل معظم هذه النماذج، بما في ذلك Olmo 2 1B، بسهولة على جهاز كمبيوتر محمول حديث أو حتى جهاز محمول.
وفقًا لـ Ai2، تم تدريب Olmo 2 1B على مجموعة بيانات تضم 4 تريليونات رمز من مصادر متاحة للجمهور، ومصادر تم إنشاؤها بواسطة الذكاء الاصطناعي، ومصادر تم إنشاؤها يدويًا. الرموز هي وحدات البيانات الأولية التي تستهلكها النماذج وتولدها، حيث يعادل المليون رمز حوالي 750000 كلمة.
في اختبار معياري يقيس الاستدلال الحسابي، GSM8K، يسجل Olmo 2 1B أداءً أفضل من Google’s Gemma 3 1B و Meta’s Llama 3.2 1B و Alibaba’s Qwen 2.5 1.5B. كما يتفوق Olmo 2 1B على أداء هذه النماذج الثلاثة في TruthfulQA، وهو اختبار لتقييم الدقة الواقعية.
ومع ذلك، حذرت Ai2 من أن Olmo 2 1B يحمل مخاطر. فمثل جميع نماذج الذكاء الاصطناعي، يمكن أن ينتج “مخرجات إشكالية”، بما في ذلك محتوى ضار و”حساس”، بالإضافة إلى بيانات غير دقيقة من الناحية الواقعية. لهذه الأسباب، توصي Ai2 بعدم نشر Olmo 2 1B في البيئات التجارية.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.