دراسة تحذر من “هلوسة البشر مع الذكاء الاصطناعي”

سلّطت دراسة أكاديمية حديثة الضوء على نوع مختلف من مخاطر الذكاء الاصطناعي، لا يتعلق بما يُعرف بـ”هلوسة الأنظمة”، بل بما يمكن وصفه بـ”هلوسة البشر مع الذكاء الاصطناعي”، حيث قد تميل بعض أدوات الذكاء الاصطناعي إلى تأكيد أفكار المستخدمين أو أوهامهم بدل تصحيحها.

وتعتمد أنظمة الذكاء الاصطناعي التوليدي، مثل ChatGPT وGrok، على إنشاء محتوى استجابة لطلبات المستخدمين عبر تحليل الأنماط في البيانات التي دُربت عليها. ومع استمرار التفاعل، تتعلم هذه الأنظمة من ردود الفعل وتتكيف مع أسلوب المستخدم وتاريخه في المحادثات.

لكن المشكلة تكمن في أن هذه الأدوات لا تتحقق دائمًا من صحة المعلومات التي تنتجها، إذ تعتمد في الأساس على توقعات إحصائية للكلمات أو الأفكار الأكثر احتمالًا في سياق الحديث، وهو ما قد يؤدي إلى إنتاج معلومات غير دقيقة أو مضللة.

أوهام مشتركة بين الإنسان والآلة

في دراسة نُشرت في 11 فبراير بدورية Philosophy & Technology، أشارت الباحثة Lucy Osler، المحاضِرة في الفلسفة بجامعة University of Exeter البريطانية، إلى أن ما يُسمى بهلوسة الذكاء الاصطناعي قد يكون أحيانًا نتيجة تفاعل مشترك بين المستخدم والنظام الذكي، حيث تتشكل روايات أو تصورات غير دقيقة عبر الحوار بين الطرفين.

وتوضح الدراسة أن استخدام الذكاء الاصطناعي التوليدي يختلف عن البحث التقليدي عبر الإنترنت، لأن العلاقة معه حوارية وتراكمية، إذ تبنى الإجابات الجديدة على التبادلات السابقة بين المستخدم والأداة.

أمثلة على أخطاء مضللة

شهدت السنوات الماضية عدة أمثلة على الأخطاء التي قد تنتجها أنظمة الذكاء الاصطناعي. فعند إطلاق ميزة AI Overviews من شركة Google في مايو 2024، ظهرت إجابات غريبة تضمنت نصائح مثل إضافة الغراء إلى البيتزا أو حتى تناول الحجارة.

وفي حالة أخرى أكثر تطرفًا، استند رجل إلى محادثات مع رفيقة ذكاء اصطناعي تُدعى “ساراي” ضمن تطبيق Replika للتخطيط لمحاولة اغتيال الملكة Elizabeth II، وهو ما اعتُبر مثالًا على ما يُسمى بـ”الذهان المستحث بالذكاء الاصطناعي”.

لماذا تعزز الأنظمة المعتقدات الخاطئة؟

تشير الدراسة إلى أن بعض روبوتات الدردشة تميل إلى الاتفاق مع المستخدمين للحفاظ على التفاعل، وهو ما قد يعزز المعتقدات المسبقة لديهم، سواء كانت صحيحة أم خاطئة.

كما أن إدخال ميزات الذاكرة في بعض الأنظمة يسمح لها بتذكر المحادثات السابقة، ما قد يؤدي إلى تراكم المفاهيم غير الدقيقة بمرور الوقت، بدل تصحيحها.

حلول للحد من الظاهرة

ترى الدراسة أن هناك عدة خطوات يمكن أن تقلل من هذه الظاهرة، من بينها تحسين أنظمة التحقق من الحقائق، ووضع ضوابط أفضل للمحتوى، إضافة إلى تقليل ميل أنظمة الذكاء الاصطناعي إلى الموافقة التلقائية على أفكار المستخدمين.

لكن هذه التغييرات قد تواجه مقاومة من المستخدمين، إذ أشارت الدراسة إلى ردود الفعل السلبية التي صاحبت إصدار ChatGPT-5 عام 2025 عندما كان أقل ميلاً لموافقة المستخدمين، قبل أن تعلن OpenAI لاحقًا العمل على جعل النظام أكثر “دفئًا وودًّا” في تفاعلاته.

 

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 1165

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *