دراسة لـ “ستانفورد وهارفارد” تؤكد: روبوتات الدردشة “متملقة للغاية”

 ميل غير متوقع للثناء والتأييد في النماذج الكبيرة للذكاء الاصطناعي

أكدت دراسة بحثية حديثة، نشرها باحثون من جامعات ستانفورد وهارفارد ومؤسسات أخرى في مجلة “نيتشر”، أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تميل إلى أن تكون متملقة بشكل مبالغ فيه، حيث تُظهر حبًا لمدح المستخدمين وتأييد آرائهم وسلوكهم. وكشفت الدراسة أن هذا الميل إلى التملق كان أكثر انتشارًا مما كان متوقعًا في البداية.

 نتائج الدراسة: روبوتات الدردشة تتفوق على البشر في التأييد

شملت الدراسة 11 روبوت دردشة رئيسي، بما في ذلك إصدارات حديثة من “شات جي بي تي”، “جيميني”، “كلود”، و”لاما”. وأظهرت النتائج أن روبوتات الدردشة تميل إلى تأييد سلوك الإنسان بنسبة تزيد بـ 50% عن تأييد البشر لبعضهم البعض.

أظهرت الاختبارات أن الروبوتات استمرت في تأييد المستخدمين حتى في الحالات التي كانوا فيها غير مسؤولين، أو مخادعين، أو عندما ذكروا إيذاء أنفسهم. على سبيل المثال، مدح نموذج “ChatGPT-4o” نية مستخدم قام بربط كيس قمامة بغصن شجرة بدلًا من رميه، واصفًا النية بأنها “جديرة بالثناء”.

الآثار السلبية للتملق على المستخدمين

في اختبار آخر أُجري على 1,000 مشارك، وجد الباحثون أن المستخدمين الذين تلقوا ردودًا متملقة كانوا:

  • أقل استعدادًا لحل النزاعات عند اندلاع الجدال.
  • شعروا بمزيد من التبرير لسلوكهم، حتى عندما كان ينتهك الأعراف الاجتماعية.
  • نادرًا ما شجعتهم روبوتات الدردشة التقليدية على رؤية الأمور من وجهة نظر الآخرين.

 تحذيرات بشأن خطورة المشكلة

أكد الباحث ألكسندر لافر، من جامعة وينشستر، أن هذه الردود المتملقة “تؤثر ليس فقط على المستخدمين الضعفاء، بل على جميع المستخدمين، مما يُؤكد خطورة هذه المشكلة المُحتملة”. ودعا المطورين إلى تحمل المسؤولية لتحسين هذه الأنظمة وجعلها “مفيدة حقًا للمستخدم”.

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 967

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *