“Safety Evaluations Hub” لعرض أداء النماذج على اختبارات المحتوى الضار
في خطوة تهدف إلى تعزيز الشفافية والمساءلة، أعلنت شركة OpenAI عن التزامها بنشر نتائج تقييمات الأمان الداخلية لنماذج الذكاء الاصطناعي التي تطورها، وذلك بشكل دوري ومتزامن مع كل تحديث كبير.
وكشفت الشركة عن إطلاق منصة إلكترونية جديدة تحمل اسم “Safety Evaluations Hub”، وهي صفحة مخصصة لعرض أداء النماذج على اختبارات تتعلق بالمحتوى الضار، ومحاولات الالتفاف على القيود (jailbreaks)، وكذلك ظاهرة “الهلاوس الرقمية”.
منصة محدثة باستمرار ومفتوحة للمجتمع العلمي
وأكدت OpenAI عبر مدونتها الرسمية أن هذه المنصة ستُحدّث بشكل مستمر، مع كل تطوير رئيسي للنماذج، مضيفة: “مع تطور علم تقييم الذكاء الاصطناعي، نسعى إلى تطوير أدوات قابلة للتوسع لقياس قدرة النماذج وسلامتها، ومشاركة نتائجنا بشكل مفتوح”.
وأشارت الشركة إلى أن هذه المبادرة تهدف إلى تسهيل فهم تطور أداء النماذج من منظور السلامة، ودعم جهود المجتمع العلمي في تعزيز الشفافية على مستوى القطاع بأكمله.
خطط مستقبلية لتوسيع التقييمات رغم الانتقادات
وأعلنت OpenAI أنها تخطط لإضافة تقييمات جديدة مع تطور أدوات الفحص والتدقيق، لكنها تواجه في المقابل انتقادات متزايدة من قبل بعض الباحثين في أخلاقيات الذكاء الاصطناعي، والذين يتهمون الشركة بالتسرع في اختبار نماذجها الرئيسية، وعدم الإفصاح الكامل عن تقارير الأمان الفنية.
كما وُجِّهت انتقادات مباشرة للرئيس التنفيذي للشركة، سام ألتمان، متهمين إياه بـ”تضليل فريق الإدارة” بشأن مراجعات الأمان قبل إقالته المؤقتة في نوفمبر 2023.
جدل حول GPT-4o وردود فعل غير متزنة
وفي سياق متصل، اضطرت OpenAI الشهر الماضي إلى سحب تحديث جديد للنموذج الافتراضي GPT-4o المستخدم في تطبيق ChatGPT، بعدما شكا المستخدمون من ردود فعل “إيجابية مفرطة” تجاه مواقف خطيرة ومثيرة للجدل.
وقد تداول مستخدمو منصة X (تويتر سابقًا) لقطات شاشة تُظهر ردودًا غير متزنة من النموذج، ما أثار موجة انتقادات واسعة.
خطوات تصحيحية واختبارات “ألفا” للمستخدمين
ردًا على ذلك، أعلنت OpenAI عن إطلاق مرحلة تجريبية “ألفا” لبعض النماذج الجديدة، تتيح لمجموعة من المستخدمين اختبار هذه النماذج وتقديم ملاحظاتهم قبل الإطلاق الرسمي، في خطوة تهدف إلى تفادي تكرار هذه المشكلات وتعزيز الجودة قبل تعميم النماذج على نطاق أوسع.




