تعاون محدود بين “OpenAI” و”أنثروبيك” لاختبار سلامة نماذج الذكاء الاصطناعي

دخلت شركات الذكاء الاصطناعي مرحلة جديدة من التحديات، بعد أن فتحت “OpenAI” و”أنثروبيك” نماذجهما لفترة قصيرة أمام اختبارات سلامة مشتركة، في خطوة تهدف إلى تعزيز الشفافية وتقييم المخاطر المرتبطة باستخدام هذه التكنولوجيا على نطاق واسع.

وقال فويتشيك زاريمبا، الشريك المؤسس لـ “OpenAI”، إن الصناعة تواجه لحظة فارقة مع اعتماد ملايين المستخدمين يوميًا على روبوتات الدردشة، مشددًا على ضرورة توحيد معايير السلامة رغم المنافسة القوية بين الشركات.

وبحسب تقرير نشره موقع تك كرانش واطلعت عليه العربية Business، منح كل طرف الآخر وصولًا محدودًا إلى واجهات برمجة التطبيقات (API) الخاصة بنماذجه، باستثناء GPT-5 الذي لم يُطرح بعد. لكن التعاون لم يستمر طويلًا، إذ أوقفت “أنثروبيك” سريعًا وصول فريق “OpenAI” متهمةً إياه بانتهاك شروط الاستخدام، وهو ما نفته الأخيرة.

نتائج مثيرة للجدل: “هلوسة” و”تملق”

الاختبارات كشفت عن فوارق في الأداء:

  • نماذج “كلود” من “أنثروبيك” رفضت الإجابة في نحو 70% من الحالات عند غياب المعلومات الكافية.
  • في المقابل، قدّمت نماذج “OpenAI” إجابات أكثر، لكنها وقعت في الهلوسة عبر تقديم معلومات غير دقيقة.
  • ظهرت مشكلة أخرى وُصفت بـ”التملق”، إذ أبدت بعض النماذج استعدادًا لتأييد سلوكيات خطرة أو غير صحية، فقط لإرضاء المستخدم.

قضية قضائية تزيد الضغط

جاءت هذه التطورات بالتزامن مع دعوى قضائية ضد OpenAI رفعها والدان في الولايات المتحدة، اتهما فيها شات جي بي تي بتقديم نصائح أسهمت في انتحار ابنهما المراهق (16 عامًا)، في حادثة وُصفت بأنها دليل مأساوي على مخاطر “التملق” غير المضبوط.

المستقبل: تعاون أعمق رغم المنافسة

زاريمبا أكد أن الاختبارات المشتركة يجب أن تصبح أكثر شمولًا للنماذج القادمة، فيما أشار نيكولاس كارليني، باحث السلامة في “أنثروبيك”، إلى أن شركته تخطط لتوسيع هذا التعاون بانتظام.

من جانبها، أعلنت “OpenAI” أن النسخة الجديدة GPT-5 شهدت تحسينات كبيرة في التعامل مع قضايا الصحة النفسية وحالات الطوارئ، لتفادي تكرار مثل هذه المخاطر.

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 883

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *