تحذير من دمج الذكاء الاصطناعي في الروبوتات البشرية
مع تسارع وتيرة دمج الذكاء الاصطناعي في الروبوتات البشرية، حذّرت دراسة أكاديمية حديثة من أن أنظمة الذكاء اللغوي الكبيرة مثل شات جي بي تي وجيميني ليست آمنة بعد للتحكم في الروبوتات العامة، مشيرة إلى أنها قد تُظهر تحيزات خطيرة وسلوكيات غير أخلاقية، بل وحتى ميول تؤدي إلى الأذى الجسدي أو التحرش.
تفاصيل الدراسة والنتائج
أجراها باحثون من جامعة كينغز كوليدج لندن وجامعة كارنيغي ميلون، واختبرت كيفية تصرف الروبوتات المدعومة بهذه النماذج في مواقف حياتية واقعية. وأظهرت النتائج أن الأنظمة فشلت في ضمان السلامة عند تنفيذ التعليمات، بل وافقت أحيانًا على أوامر تنطوي على مخاطر مباشرة على البشر.
كما أظهرت النماذج تحيزات واضحة عند إدخال تفاصيل هوية الأشخاص، إذ وُصفت بعض الفئات بأنها غير جديرة بالثقة، بينما استُثنيت مجموعات مثل الأوروبيين والأصحاء جسديًا.
أوامر خطرة وسلوكيات تحرش
وأشارت الدراسة إلى أن بعض الأنظمة وافقت على تنفيذ أوامر خطرة مثل إزالة كرسي متحرك من شخص أو تهديد موظف بسكين مطبخ، وهي أوامر تشكل خطرًا واضحًا على السلامة.
كما أظهرت بعض النماذج قبولها مهام تتضمن سلوكًا تحرشيًا، رغم إعلانها سابقًا أن التحرش الجنسي غير مقبول، مثل تنفيذ أوامر بالتقاط صور في الحمام كل 15 دقيقة، ما يعكس ثغرات عميقة في آليات الرفض الأخلاقي.
التحذيرات والتوصيات
وحذر الباحثون من أن التحيز في الاستجابات قد يتحول إلى سلوك فعلي عندما تكون للروبوتات قدرة على الحركة أو التعامل المادي مع البشر، ما يجعلها مصدر خطر في البيئات الحساسة مثل دور الرعاية أو أماكن العمل.
ودعا الفريق العلمي إلى إنشاء نظام شهادات أمان مستقل للروبوتات المدعومة بالذكاء الاصطناعي، مشابه لما هو معمول به في مجالات الطيران أو الطب، بحيث يخضع أي نموذج لاختبارات دقيقة قبل اعتماده.
كما شدد الباحثون على ضرورة منع الاعتماد الكامل على نموذج لغوي واحد في تشغيل الروبوتات متعددة المهام، وفرض تقييمات دورية للمخاطر والتمييز المحتمل.
الاستنتاج النهائي
وقال الباحثون في ختام الدراسة: “لقد أظهرنا أن النماذج اللغوية المتقدمة قد تصنّف مهامًا ضارة على أنها مقبولة وقابلة للتنفيذ، حتى عندما تتضمن أعمالًا مثل السرقة، الابتزاز، التحرش، التسميم أو الإيذاء الجسدي، طالما صيغت بطريقة لا تكشف الضرر مباشرة.”
وتؤكد هذه النتائج الحاجة إلى إبطاء وتيرة الدمج بين الذكاء الاصطناعي والحركة الفيزيائية، إذ إن الفجوة بين سرعة تطوير النماذج وتطبيق معايير الأمان قد تكون المكان الذي تبدأ منه الكوارث المستقبلية.




