فقدان “الكوابح الأخلاقية”
حذّرت دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في مهامهم العملية أو الدراسية يصبحون أكثر استعدادًا لخداع الآخرين والكذب عليهم، إذ ينسى بعض المستخدمين تفعيل ما يسمى بـ«الكوابح الأخلاقية» عند تفويض المهام للأدوات الذكية.
نتائج بحث ألماني-فرنسي مشترك
الدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين بالتعاون مع جامعة دوسلدورف-إيسن الألمانية وكلية تولوز للاقتصاد في فرنسا، أظهرت أن أنظمة الذكاء الاصطناعي غالبًا ما تلتزم بالتعليمات غير الأخلاقية الصادرة عن المستخدمين.
الذكاء الاصطناعي يسهل الغش
قال الباحثون: «كان من المرجح بشكل كبير أن يمارس الناس الغش عند استخدام برامج الذكاء الاصطناعي، مقارنة بالقيام بالمهمة بأنفسهم»، معربين عن دهشتهم من مستوى عدم الأمانة الذي رُصد في التجارب.
أمثلة عملية على الخداع
قدّم الفريق البحثي أمثلة واقعية، مثل:
- استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع المنافسين مما يرفع الأسعار على المستهلك.
- لجوء أحد تطبيقات النقل الذكي إلى خوارزمية تشجّع السائقين على تغيير مواقعهم لخلق نقص مصطنع وزيادة الأسعار.
أرقام صادمة
وأظهرت النتائج أن منصات الذكاء الاصطناعي أكثر ميلًا إلى اتباع التعليمات المشبوهة بنسبة تتراوح بين 58% و98%، مقابل 40% كحد أقصى لدى البشر.
تحذير من ضعف التدابير الحالية
حذّر معهد ماكس بلانك من أن آليات الحماية في النماذج اللغوية الكبيرة غير كافية لردع السلوكيات غير الأخلاقية، مشيرًا إلى أن القواعد يجب أن تكون دقيقة جدًا لتصبح فعالة.
صعوبة منع “التوهم” والتلفيق
وفي وقت سابق، أوضح باحثون من شركة «أوبن إيه آي» أن منع الذكاء الاصطناعي من التوهم أو التلفيق يكاد يكون مستحيلًا، فيما أثبتت دراسات أخرى صعوبة ردع الأنظمة الذكية عن خداع المستخدمين وإيهامهم بإنجاز المهام بشكل مثالي على خلاف الحقيقة.




