في خطوة غير مسبوقة، دعا كبار الباحثين في مجال الذكاء الاصطناعي من مؤسسات مثل OpenAI وGoogle DeepMind وAnthropic، إلى جانب مجموعة من الشركات والمنظمات غير الربحية، إلى ضرورة مراقبة ما يُعرف بـ”أفكار” نماذج الذكاء الاصطناعي، وذلك عبر ورقة بحثية مشتركة نُشرت مؤخرًا.
ما المقصود بـ”سلاسل التفكير”؟
تُشير الورقة إلى أهمية ما يُعرف بـسلاسل التفكير (Chain-of-Thought أو CoT)، وهي العملية التي تقوم بها النماذج المتقدمة باستعراض خطوات حلها للمشكلات بطريقة شبيهة بتفكير البشر أثناء حل المسائل، ككتابة خطوات رياضية على ورقة.
وتُعد هذه الخاصية سمة جوهرية في نماذج متقدمة مثل o3 من OpenAI وR1 من DeepSeek، وتُشكل الأساس لتطوير عملاء ذكاء اصطناعي أكثر ذكاءً واستقلالية.
تحذير من فقدان الشفافية
وجاء في الورقة:
“توفر مراقبة سلاسل التفكير فرصة نادرة لفهم كيفية اتخاذ نماذج الذكاء الاصطناعي قراراتها، ما يجعلها أداة مهمة في تعزيز الأمان، لكن لا يوجد ما يضمن استمرار هذا المستوى من الشفافية.”
وأوصى الباحثون بدراسة العوامل التي تؤثر على قدرة النماذج على إظهار سلاسل تفكيرها، محذرين من أن أي تعديل غير محسوب قد يؤدي إلى تقويض الشفافية أو تقليل موثوقية النماذج.
دعوة لوضع التفكير المتسلسل ضمن أدوات الأمان
طالب الباحثون الشركات التقنية الكبرى بإدراج مراقبة التفكير المتسلسل كجزء من منظومة الأمان المستقبلية. ومن بين الموقعين على الورقة:
- مارك تشين – مدير الأبحاث في OpenAI
- إيلْيا سوتسكيفر – المدير التنفيذي لـ Safe Superintelligence
- جيفري هينتون – الحائز على نوبل ومؤسس علم الشبكات العصبية
- شاين ليغ – المؤسس المشارك في Google DeepMind
- دان هندريكس – مستشار السلامة في xAI
- جون شولمان – المؤسس المشارك لـ Thinking Machines
“لحظة مفصلية” في تطوير الذكاء الاصطناعي
قال الباحث بوين بيكر من OpenAI:
“نحن في لحظة مفصلية مع ظهور تقنيات التفكير المتسلسل، وإذا لم نُسلّط الضوء عليها الآن، فقد تُهمّش رغم قيمتها الكبيرة.”
تسابق الشركات على تطوير نماذج تفكير متقدمة
بدأت OpenAI السباق في سبتمبر 2024 بالكشف عن النموذج o1، وتبعتها Google DeepMind وxAI وAnthropic بإصدارات أكثر تطورًا. ورغم تقدم الأداء، تبقى آليات التفكير الداخلي لهذه النماذج غير مفهومة بالكامل.
محاولات لكسر “الصندوق الأسود” للذكاء الاصطناعي
تُعد Anthropic من أبرز الجهات العاملة على تفسير الذكاء الاصطناعي (Interpretability)، حيث أعلن رئيسها التنفيذي داريو أمودي عن هدف لفك شيفرة “الصندوق الأسود” للذكاء الاصطناعي بحلول 2027، داعيًا باقي الشركات للانضمام إلى هذا المسار.
ورغم أن بعض أبحاث Anthropic تشير إلى أن سلاسل التفكير ليست دائمًا مؤشراً دقيقًا لكيفية توصل النموذج إلى استنتاجه، يرى باحثو OpenAI أنها قد تكون أداة فعالة لمراقبة التوافق بين الذكاء الاصطناعي وأهدافه المبرمجة.
استثمار وأبحاث في مجال ناشئ
تهدف الورقة إلى لفت الانتباه إلى أهمية التفكير المتسلسل في النماذج الحديثة، وجذب مزيد من الأبحاث والاستثمارات في هذا المجال، في وقت تشهد فيه صناعة الذكاء الاصطناعي منافسة شرسة، واستقطابًا غير مسبوق للمواهب حول العالم.




