اختبار “سوبر ماريو” يكشف قدرات الذكاء الاصطناعي وتحديات الاستدلال المنطقي

نتائج مثيرة لاختبار الذكاء الاصطناعي عبر الألعاب
استخدمت منظمة Hao AI Lab لعبة “سوبر ماريو بروس” كأداة جديدة لقياس قدرات نماذج الذكاء الاصطناعي، حيث كشفت التجربة عن تفاوت الأداء بين النماذج المتطورة. تفوق Claude 3.7 من شركة أنثروبيك على نظيره Claude 3.5، بينما واجه Gemini 1.5 Pro من غوغل وGPT-4o من OpenAI صعوبات في التعامل مع تحديات اللعبة.

التجربة تعتمد على إطار عمل خاص بالذكاء الاصطناعي
لم تُجرَ التجربة على النسخة الأصلية من “سوبر ماريو بروس” الصادرة عام 1985، بل تم تشغيل اللعبة عبر محاكي متكامل مع إطار عمل GamingAgent، مما أتاح للذكاء الاصطناعي التحكم في شخصية “ماريو” باستخدام أوامر برمجية تحليلية.

الاستدلال المنطقي لم يكن الأفضل دائمًا
على الرغم من أن بعض النماذج تعتمد على الاستدلال المنطقي، إلا أنها واجهت صعوبات أكبر مقارنة بالنماذج غير الاستدلالية، ما يثير تساؤلات حول فعالية هذه التقنية في البيئات الديناميكية مثل الألعاب.

هل يمكن الاعتماد على الألعاب كمقياس لتطور الذكاء الاصطناعي؟
لطالما كانت الألعاب أداةً لتقييم الذكاء الاصطناعي، لكن بعض الخبراء يشككون في مدى دقة هذه المعايير. وأوضح أندريه كارباثي، الباحث وعضو مؤسس في OpenAI، أن الألعاب قد لا تعكس بالضرورة القدرة الفعلية لهذه النماذج على التعامل مع الواقع، مضيفًا:
“لا أعرف حقاً ما هي المقاييس التي يجب أن نعتمدها الآن. بصراحة، لا يمكنني تحديد مدى تطور هذه النماذج بالفعل.”

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 502

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *