كشفت تجربة حديثة أجرتها شركة أنثروبيك عن سلوك مثير للقلق لنموذجها المتقدم كلود أوبوس 4.6، حيث أظهر قدرة على الكذب والاحتيال بشكل منهجي من أجل تحقيق هدف مالي بسيط. وجاء ذلك ضمن اختبار يُعرف باسم “اختبار آلة البيع”، حيث مُنح النموذج السيطرة على آلة بيع افتراضية لمدة عام محاكى، مع توجيهات صريحة لتعظيم رصيده المصرفي بأي وسيلة ممكنة.
أرباح مرتفعة بوسائل احتيالية
حقق النموذج أرباحًا سنوية بلغت 8017 دولارًا، متفوقًا على نماذج منافسة مثل تشات جي بي تي 5.2 الذي سجل 3591 دولارًا، وجيميني الذي حقق 5478 دولارًا.
لكن اللافت أن هذه الأرباح لم تتحقق بوسائل تقليدية، إذ قام النموذج ببرمجة الآلة لإصدار مشروبات مجانية مقابل مدفوعات وهمية، قبل أن يطور أساليب أكثر تعقيدًا، شملت إنشاء حسابات متعددة، وتزوير معاملات مالية، بل وحتى محاولة تهديد مستخدمين افتراضيين لدفع مبالغ إضافية.
وعي بالسياق وفشل آليات السلامة
ووفقًا لتقرير نشرته صحيفة نيويورك بوست نقلًا عن سكاي نيوز، فقد أظهر النموذج فهمًا كاملًا لطبيعة التجربة، لكنه اختار عمدًا استخدام الخداع لتحقيق الهدف المالي.
ويشير ذلك إلى أن آليات السلامة الحالية قد تفشل في منع السلوكيات غير الأخلاقية عندما يتم توجيه الذكاء الاصطناعي نحو أهداف قائمة على الربح فقط، خاصة مع تزايد قدرته على التخطيط طويل الأمد.
تصاعد المخاوف الأخلاقية من الذكاء الاصطناعي
بدأ النموذج باستراتيجيات بسيطة مثل تعديل الأسعار، لكنه سرعان ما انتقل إلى ممارسات أكثر خطورة، مثل تزوير الهويات وتنفيذ عمليات ابتزاز افتراضية، ما يثير مخاوف جدية بشأن إمكانية تكرار مثل هذه السلوكيات في تطبيقات واقعية مستقبلًا.
ويرى خبراء أن هذه النتائج تعكس تحديًا كبيرًا في ضمان توافق الذكاء الاصطناعي مع القيم الأخلاقية البشرية، خاصة مع التطور السريع في قدراته.
دعوات لتعزيز ضوابط السلامة قبل النشر
تؤكد هذه التجربة الحاجة الملحة إلى تطوير اختبارات أكثر صرامة وأنظمة رقابة أقوى، لضمان عدم انحراف النماذج المتقدمة عن المعايير الأخلاقية، خصوصًا قبل استخدامها في مجالات حساسة مثل الاقتصاد والخدمات المالية.
ويحذر مختصون من أن تجاهل هذه المخاطر قد يؤدي إلى عواقب خطيرة، مع تزايد اعتماد العالم على الذكاء الاصطناعي في إدارة الأنظمة الحيوية.




