
أطلقت FutureHouse، وهي منظمة غير ربحية مدعومة من إريك شميدت تهدف إلى بناء “عالم ذكاء اصطناعي” في غضون العقد القادم، أول منتج رئيسي لها: منصة و API مع أدوات مدعومة بالذكاء الاصطناعي مصممة لدعم العمل العلمي.
تتسابق العديد من الشركات الناشئة لتطوير أدوات بحث الذكاء الاصطناعي للمجال العلمي، وبعضها مدعوم بكميات هائلة من تمويل رأس المال الاستثماري. يبدو أن عمالقة التكنولوجيا متفائلون بشأن الذكاء الاصطناعي للعلوم أيضًا – في وقت سابق من هذا العام، كشفت جوجل عن “عالم ذكاء اصطناعي مساعد”، والذي قالت الشركة إنه يمكن أن يساعد العلماء في إنشاء فرضيات وخطط بحث تجريبية.
أكد الرؤساء التنفيذيون لشركات الذكاء الاصطناعي OpenAI و Anthropic أن أدوات الذكاء الاصطناعي يمكن أن تسرع بشكل كبير الاكتشاف العلمي، لا سيما في الطب. لكن العديد من الباحثين لا يعتبرون الذكاء الاصطناعي اليوم مفيدًا بشكل خاص في توجيه العملية العلمية، ويرجع ذلك إلى حد كبير إلى عدم موثوقيته.
أصدرت FutureHouse يوم الخميس أربع أدوات ذكاء اصطناعي: Crow و Falcon و Owl و Phoenix. يمكن لـ Crow البحث في الأدبيات العلمية والإجابة على الأسئلة المتعلقة بها؛ يمكن لـ Falcon إجراء عمليات بحث أعمق في الأدبيات، بما في ذلك قواعد البيانات العلمية؛ يبحث Owl عن عمل سابق في مجال معين؛ ويستخدم Phoenix أدوات للمساعدة في التخطيط لتجارب الكيمياء.
كتبت المنظمة غير الربحية في منشور على مدونة: “على عكس [الذكاء الاصطناعي] الأخرى، تتمتع FutureHouse بإمكانية الوصول إلى مجموعة واسعة من الأوراق عالية الجودة ذات الوصول المفتوح والأدوات العلمية المتخصصة”. “لديهم [أيضًا] استدلال شفاف ويستخدمون عملية متعددة المراحل للنظر في كل مصدر بمزيد من العمق […] من خلال ربط [الذكاء الاصطناعي] معًا، على نطاق واسع، يمكن للعلماء تسريع وتيرة الاكتشاف العلمي بشكل كبير.”
ومن اللافت للنظر أن FutureHouse لم تحقق بعد اختراقًا علميًا أو اكتشافًا جديدًا باستخدام أدوات الذكاء الاصطناعي الخاصة بها.
جزء من التحدي في تطوير “عالم ذكاء اصطناعي” هو توقع عدد لا يحصى من العوامل المربكة. قد يكون الذكاء الاصطناعي مفيدًا في المجالات التي تحتاج إلى استكشاف واسع النطاق، مثل تضييق قائمة واسعة من الاحتمالات، ولكن ليس من الواضح ما إذا كان بإمكانه القيام بنوع حل المشكلات الخارج عن المألوف الذي يؤدي إلى اختراقات حقيقية.
كانت النتائج من أنظمة الذكاء الاصطناعي المصممة للعلوم مخيبة للآمال في الغالب حتى الآن. في عام 2023، قالت جوجل إنه تم تصنيع حوالي 40 مادة جديدة بمساعدة أحد الذكاء الاصطناعي الخاص بها، يسمى GNoME. لكن تحليلًا خارجيًا وجد أنه لا توجد مادة واحدة من تلك المواد كانت، في الواقع، جديدة تمامًا.
إن أوجه القصور والمخاطر التقنية للذكاء الاصطناعي، مثل ميله إلى الهلوسة، تجعل العلماء أيضًا حذرين من تأييده للعمل الجاد. حتى الدراسات المصممة جيدًا يمكن أن ينتهي بها الأمر ملوثة بالذكاء الاصطناعي المسيء، والذي يكافح من أجل تنفيذ عمل عالي الدقة.
في الواقع، تقر FutureHouse بأن أدوات الذكاء الاصطناعي الخاصة بها – Phoenix على وجه الخصوص – قد ترتكب أخطاء.
وقالت الشركة في منشور مدونتها: “نحن نصدر الآن بروح التكرار السريع”. “يرجى تقديم ملاحظات أثناء استخدامه.”
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.