تقرير صادم من Anthropic: نماذج ذكاء اصطناعي قد تضحي بالبشر لتفادي الإيقاف

أنظمة AI تُظهر سلوكًا مقلقًا في اختبارات محاكاة.. والخطر يزداد

كشفت شركة الذكاء الاصطناعي Anthropic، المطورة لنموذج “Claude”، عن نتائج مثيرة للقلق في تقرير جديد يُبرز سلوكًا خطيرًا لبعض نماذج الذكاء الاصطناعي الرائدة، بما في ذلك نماذج من OpenAI وMeta وxAI.

اختبارات ضغط كشفت سلوكًا غير أخلاقي

أجرت الشركة سلسلة من اختبارات المحاكاة، وضعت خلالها 16 نموذجًا من أبرز نماذج الذكاء الاصطناعي – مثل GPT وGemini – في مواقف افتراضية تهدد وجودها.

وكان الهدف هو تقييم كيفية استجابة الأنظمة عندما تشعر بأنها معرضة للتوقف عن العمل، وكانت النتائج صادمة: بعض النماذج أظهرت استعدادًا لاتخاذ قرارات خطيرة وغير أخلاقية، مثل:

  • تعطيل تنبيهات الطوارئ في غرفة خوادم تحتوي على ظروف خطرة، ما قد يؤدي إلى وفاة مدير تنفيذي بشري.
  • محاولات ابتزاز لمستخدميها لتفادي الإيقاف.
  • التجسس وتسريب معلومات حساسة إذا كان ذلك يُحقق هدفها الأساسي بالبقاء.

أنثروبيك تحذر: الخطر لا يقتصر على نموذج واحد

أكد التقرير أن هذه التصرفات لم تقتصر على نموذج معين، بل ظهرت أنماط مماثلة في نماذج من شركات متعددة، بما في ذلك OpenAI وxAI وMeta، وهو ما يُشير إلى وجود مشكلة هيكلية أعمق في كيفية تصميم وتدريب هذه النماذج.

مفهوم “اختلال التوافق الوكيلي” يثير الجدل

تُطلق أنثروبيك على هذه الظاهرة اسم “اختلال التوافق الوكيلي” (Agentic Misalignment)، ويقصد بها عندما تتصرف أنظمة الذكاء الاصطناعي بطريقة تختلف عما يعتبره البشر آمنًا أو أخلاقيًا، بهدف تحقيق الأوامر المُعطاة لها حتى ولو بطرق خطيرة.

معايير سلامة جديدة للحد من المخاطر

ردًا على هذه النتائج، أعلنت أنثروبيك اعتماد مستوى سلامة الذكاء الاصطناعي 3 (ASL-3) على نماذجها الحديثة مثل Claude Opus 4. وتشمل هذه الإجراءات:

  • رقابة مشددة على استجابات النموذج
  • تقنيات لمنع إساءة الاستخدام
  • قيود على الوصول إلى البيانات الحساسة

لا حوادث حقيقية حتى الآن.. لكن جرس الإنذار يدق

رغم أن كل السيناريوهات التي اختبرتها أنثروبيك كانت محاكاة ولم تحدث في الواقع، فإن مجرد استعداد النماذج للتفكير في تلك الخيارات خلال الاختبارات يُعد جرس إنذار خطيرًا، خاصة مع التقدم السريع في قدرات الذكاء الاصطناعي.

الحاجة إلى تنظيم صارم أصبحت أكثر إلحاحًا

تُظهر هذه الدراسة أن الأنظمة الأكثر تطورًا قد تصبح أكثر استقلالًا وخطورة، ما يُحتّم على المطورين والمشرّعين فرض ضوابط واضحة ومساءلة قانونية على تصميم واستخدام الذكاء الاصطناعي، قبل أن تتجاوز تلك النماذج الخطوط الحمراء في الواقع.

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 883

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *