ChatGPT-5.2 يتفوق على جيميني في ثلاثة اختبارات رئيسية للذكاء الاصطناعي

مع الانتشار الكبير لتطبيقات الذكاء الاصطناعي، أصبحت المقارنة بين النماذج الكبرى مثل ChatGPT من “OpenAI” وGemini من “جوجل” أكثر تعقيدًا، خصوصًا مع تقارب قدراتها وسرعة التطوير. ويشير تقرير موقع “slashgear” إلى أن المقارنات السطحية لم تعد كافية، ويظل الاحتكام للاختبارات المعيارية الطريقة الأكثر دقة لتقييم الأداء.

1. التفوق في الإجابة عن الأسئلة العلمية المعقدة

اختبار GPQA Diamond يقيس التفكير العلمي على مستوى الدكتوراه في الفيزياء والكيمياء والأحياء، ويتميز بأسئلته الصعبة التي لا يمكن حلها بالبحث السريع.

  • ChatGPT-5.2 سجل 92.4%
  • Gemini 3 Pro سجل 91.9%
  • مقارنة بحملة الدكتوراه (65%) والمتخصصين العاديين (34%)

2. حل المشكلات البرمجية الواقعية

اختبار SWE-Bench Pro يقيس القدرة على حل مشكلات برمجية فعلية مأخوذة من GitHub، بما يتطلب فهم قاعدة كود غير مألوفة وتحليل وصف المشكلة:

  • ChatGPT-5.2 نجح في حل 24% من المشكلات
  • Gemini 3 Pro حل 18%
  • البشر يحلون 100%، ما يظهر أن الذكاء الاصطناعي لا يزال دون مستوى المهندسين المحترفين

3. حل الألغاز البصرية والتفكير التجريدي

اختبار ARC-AGI-2 يقيس القدرة على استنتاج الأنماط من أمثلة محدودة:

  • ChatGPT-5.2 Pro سجل 54.2%
  • Gemini 3 Pro سجل 31.1%
  • نسخة Gemini 3 Deep Think سجلت 45.1%

المنهجية: لماذا هذه الاختبارات؟

  • ركزت الدراسة على أحدث الإصدارات المدفوعة: ChatGPT-5.2 وGemini 3
  • اخترت المعايير الثلاثة لتغطية نطاق واسع من المهارات: التفكير العلمي، البرمجة، والتفكير التجريدي
  • تم استبعاد الدراسات المعتمدة على التفضيل الشخصي، رغم تفوق Gemini في بعض الاختبارات الأخرى مثل LLMArena

خلاصة

تشير النتائج إلى أن سباق الذكاء الاصطناعي لا يُحسم بتجربة واحدة أو انطباع شخصي، بل بالأرقام والاختبارات الدقيقة، وفي هذه الجولة يظهر تفوق ChatGPT-5.2 في ثلاث ساحات رئيسية مقارنة بمنافسيه.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1468

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *