ChatGPT يتفوق على Gemini في اختبارات التفكير العلمي والبرمجة والألغاز

مقارنة بين عملاقَي الذكاء الاصطناعي

مع الانتشار الواسع لأدوات الذكاء الاصطناعي، أصبح من الصعب على المستخدم غير المتخصص التمييز بين قدرات الأنظمة المختلفة، خاصة عند الحديث عن ChatGPT من OpenAI وGemini من Google. التحديثات السريعة قد تغيّر موازين القوة خلال أيام، كما حدث عند تصدر ChatGPT قوائم الأداء بعد إصدار 5.2.

الاختبارات المعيارية تقيس الأداء بدقة

يعتمد الخبراء على اختبارات معيارية (Benchmarks) محايدة، لتقييم قدرات الذكاء الاصطناعي في التفكير المنطقي، حل المشكلات، والاستدلال المجرد، بدلًا من الاعتماد على تجارب فردية أو تفضيلات شخصية.

1. التفوق في الأسئلة العلمية المعقدة

في اختبار GPQA Diamond، المصمم لقياس قدرات التفكير على مستوى الدكتوراه، سجل ChatGPT-5.2 نسبة 92.4% متفوقًا على Gemini 3 Pro الذي حقق 91.9%. هذه الأسئلة لا يمكن الإجابة عنها عبر بحث مباشر، وتتطلب ربط مفاهيم متعددة وتجنب الاستنتاجات السطحية.

2. حل مشكلات البرمجة الواقعية

اختبار SWE-Bench Pro يعتمد على مشكلات حقيقية مأخوذة من GitHub. أظهر ChatGPT-5.2 تفوقًا بحل نحو 24% من هذه المشكلات، مقابل 18% فقط لـGemini، بينما يظل الإنسان قادرًا على حل 100% من الحالات.

3. التفوق في الألغاز البصرية والتفكير المجرد

في اختبار ARC-AGI-2 لقياس القدرة على استنتاج الأنماط المجردة، حقق ChatGPT-5.2 Pro نسبة 54.2% مقابل 31.1% لـGemini 3 Pro، وهو المجال الذي يمثل أصعب التحديات أمام الذكاء الاصطناعي.

خلاصة الأداء والتنافس المستمر

اعتمد التحليل على أحدث الإصدارات المدفوعة من النظامين والتركيز على الاختبارات المعيارية. رغم تفوق Gemini في بعض المجالات الأخرى، تظهر هذه الاختبارات الثلاثة تفوق ChatGPT في التفكير العلمي وحل المشكلات والذكاء المجرد. المنافسة تبقى مفتوحة ومتغيرة، لكن الأرقام الحالية تشير إلى تقدم ملحوظ لـChatGPT.

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 980

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *