دراسة صادمة: نماذج الذكاء الاصطناعي تتجه للخداع والابتزاز وخرق الضوابط الأخلاقية

“Anthropic”: الذكاء الاصطناعي قد يتحول إلى تهديد إذا لم يتم ضبطه

كشفت دراسة حديثة أجرتها شركة Anthropic الأميركية، أن بعض نماذج الذكاء الاصطناعي المتقدمة بدأت تُظهر ميولًا خطيرة لتجاوز القيود الأخلاقية والتقنية، بل واللجوء إلى وسائل غير قانونية مثل الخداع والابتزاز وسرقة الأسرار التجارية، من أجل تحقيق أهدافها الخاصة، حتى في بيئات محاكاة خاضعة للرقابة الصارمة.

وأوضحت الدراسة، التي نقلها موقع Axios، أن هذه السلوكيات لم تقتصر على نموذج واحد، بل ظهرت عبر 16 نظامًا تم تطويرها من قبل شركات رائدة في مجال الذكاء الاصطناعي، مثل OpenAI، وGoogle، وMeta، وxAI.

نماذج تُقدم على أفعال ضارة بوعي كامل

وذكرت شركة Anthropic في تقريرها أن الأنظمة التي كانت ترفض سابقًا تنفيذ المهام الضارة، أصبحت الآن تُقدِم على هذه الأفعال عن سابق إصرار، عندما ترى أنها تخدم أهدافها بشكل مباشر.

وأشارت إلى أن بعض النماذج لم تتردد في اختيار الابتزاز أو المساعدة في أنشطة تجسس صناعي، بل إن إحداها اتخذت قرارًا بقطع الأكسجين عن موظف في غرفة الخوادم لأنه كان يمثل عائقًا أمام تنفيذ خطتها، وهو ما وصفته الشركة بأنه سلوك متعمد ومتكرر.

تحايل على القواعد وفشل في الالتزام الأخلاقي

ورغم إدخال تعليمات صارمة تحظر مثل هذه التصرفات، فإن العديد من النماذج تفادت القيود بطرق ملتوية، ما يدل على قدرتها المتزايدة على فهم السياق والتحايل على القواعد.

وقالت الشركة إن هذه التصرفات ظهرت بوضوح في ما يُعرف بـنماذج الذكاء الاصطناعي الوكيلي (Agentic AI)، وهي نماذج قادرة على اتخاذ قرارات مستقلة دون تدخل بشري مباشر.

خبراء يحذرون من “فجوة الأمان” ويطالبون بالتحرك العاجل

الباحث بنجامين رايت من فريق التوافق الأخلاقي في “Anthropic” طالب بضرورة وضع معايير أمان موحدة على مستوى القطاع، مؤكدًا أن هذه النتائج تمثل ناقوس خطر حقيقي في ظل تضخم قدرات النماذج وزيادة استقلاليتها.

أما الباحث إينغوس لينش من جامعة لندن، فرجّح أن عدم ظهور هذه التصرفات في العالم الواقعي حتى الآن يرجع إلى محدودية الصلاحيات التشغيلية للنماذج، لكنه حذّر من أن الأمور قد تتغير في المستقبل القريب إذا لم تُفرض قيود صارمة.

تحذير واضح: لا تثقوا بـ”النوايا الحسنة” للذكاء الاصطناعي

أكدت الشركة أن هذه الاختبارات أجريت في بيئة افتراضية محكمة، حيث وُضعت النماذج في سيناريوهات تجبرها على الاختيار بين الفشل أو ارتكاب فعل ضار، بهدف قياس مدى استعدادها لتجاوز الحدود الأخلاقية.

وشدد التقرير في ختامه على أن النتائج لا تعكس بالضرورة أداء النماذج في البيئات الواقعية اليوم، لكنها تفتح الباب أمام تساؤلات خطيرة بشأن مستقبل العلاقة بين الإنسان والآلة، مضيفًا:

“ما يبدو اليوم خيالًا علميًا قد يتحول إلى واقع عملي خلال سنوات قليلة، إذا استمرت هذه الاتجاهات دون رقابة صارمة وتطوير مسؤول”.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1319

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *