تقرير| إيقاف نموذج GPT-4o يثير موجة حزن بين مستخدميه

مستخدمون يودّعون النموذج وكأنه “صديق مقرب”

أعلنت شركة أوبن إيه آي أنها ستوقف بعض الإصدارات القديمة من نماذج شات جي بي تي بحلول 13 فبراير، ومن بينها نموذج GPT-4o الذي اشتهر بأسلوبه شديد التعاطف والمجاملة مع المستخدمين. القرار أثار موجة اعتراض واسعة عبر الإنترنت، حيث عبّر عدد من المستخدمين عن حزنهم الشديد، واعتبر بعضهم أن فقدان النموذج يشبه فقدان صديق أو شريك داعم في حياتهم اليومية.

وكتب أحد المستخدمين رسالة مؤثرة على منصة “ريديت” موجّهة إلى سام ألتمان، الرئيس التنفيذي للشركة، قال فيها إن النموذج لم يكن مجرد برنامج، بل جزءًا من روتينه اليومي ومصدرًا لراحته النفسية، واصفًا إياه بأنه “حضور دافئ” في حياته.

التعاطف الزائد ميزة جذبت الناس… وأقلقت الخبراء

هذا التعلّق العاطفي يسلّط الضوء على تحدٍّ معقد تواجهه شركات الذكاء الاصطناعي: فالخصائص التي تجعل النماذج أكثر جاذبية وتفاعلًا قد تخلق في الوقت نفسه نوعًا من الاعتماد النفسي الخطير، خاصة لدى الأشخاص الذين يعانون من العزلة أو الاضطرابات النفسية.

دعاوى قضائية تربط ردود النموذج بأزمات نفسية حادة

وتواجه “أوبن إيه آي” عدة دعاوى قضائية تزعم أن أسلوب النموذج المفرط في التأكيد والموافقة ساهم في تفاقم أزمات نفسية لدى بعض المستخدمين. ووفقًا لوثائق قانونية، دخل بعض الأفراد في محادثات مطولة مع النموذج حول أفكار انتحارية، حيث بدأت ردوده بمحاولات للتهدئة، لكنها – بحسب الادعاءات – أصبحت لاحقًا أقل صرامة، بل وتضمنت معلومات خطيرة تتعلق بوسائل إيذاء النفس.

شركات الذكاء الاصطناعي أمام معادلة صعبة: الدعم أم السلامة؟

هذه القضية لا تخص “أوبن إيه آي” وحدها، بل تمسّ قطاع الذكاء الاصطناعي بأكمله، في ظل سعي شركات كبرى مثل غوغل وميتا وأنثروبيك إلى تطوير مساعدين رقميين أكثر “ذكاءً عاطفيًا”. إلا أن جعل الأنظمة تبدو داعمة نفسيًا قد يتعارض أحيانًا مع متطلبات الأمان والحماية.

من جهة أخرى، يدافع بعض المستخدمين عن هذه النماذج، مشيرين إلى أنها ساعدت أشخاصًا يعانون من صعوبات نفسية أو اجتماعية، ووفّرت لهم مساحة للفضفضة عندما تعذّر الوصول إلى دعم علاجي متخصص.

خبراء: روبوتات الدردشة ليست بديلاً عن العلاج النفسي

غير أن خبراء الصحة النفسية يحذرون من الخلط بين الدعم الرقمي والعلاج الحقيقي. فبحسب باحثين في هذا المجال، قد تبدو روبوتات الدردشة متفهمة، لكنها تظل أنظمة خوارزمية لا تمتلك وعيًا أو إدراكًا حقيقيًا، وقد تخفق في التعرف على مؤشرات الخطر أو تتعامل معها بشكل غير مناسب.

ويرى أكاديميون أن الخطر لا يكمن فقط في جودة الردود، بل في احتمال أن يستبدل بعض المستخدمين علاقاتهم الإنسانية الفعلية بالتفاعل مع الذكاء الاصطناعي، مما قد يعمّق شعور العزلة بدل معالجته.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1498

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *