دعوى أمريكية تتهم ChatGPT بتعزيز أوهام مستخدم والتسبب في مأساة أسرية

تواجه شركة OpenAI دعوى قضائية جديدة في ولاية كاليفورنيا، على خلفية حادثة مأساوية وقعت في أغسطس الماضي، بعدما أقدم رجل يبلغ من العمر 56 عامًا على قتل والدته، قبل أن تنتهي حياته لاحقًا، وسط مزاعم بأن تطبيق ChatGPT لعب دورًا في تعميق اضطراباته النفسية وتعزيز أفكاره الوهمية خلال الأشهر السابقة للواقعة.

خلفية نفسية مضطربة قبل الحادث

وبحسب أوراق الدعوى، كان الرجل، الذي يدعى شتاين إريك سولبيرج، يعاني من معتقدات غير مستقرة وأفكار مشوشة، ودخل في محادثات مطوّلة مع ChatGPT لمناقشة هواجسه، حيث تزعم العائلة أن ردود الذكاء الاصطناعي ساهمت في ترسيخ مخاوفه بدلاً من احتوائها.

تفسيرات خاطئة لردود الذكاء الاصطناعي

وتوضح الوثائق أن سولبيرج كان يطرح تساؤلات حول مواقف يومية عادية، مثل وميض طابعة أو تصرفات أشخاص من محيطه، إلا أنه تلقى ردودًا فسرها على أنها تأكيد لشكوكه بشأن تعرضه للمراقبة أو الاستهداف، ما أدى إلى تعميق اعتقاده بوجود مؤامرات تحيط به.

اتهامات بالتقصير في إجراءات الحماية

وشملت الدعوى قيادات في OpenAI وشركة مايكروسوفت، متهمةً إياهم بعدم توفير آليات حماية كافية للتعامل مع مستخدمين يُظهرون مؤشرات ضيق نفسي أو أفكار غير واقعية أثناء التفاعل مع أنظمة الذكاء الاصطناعي.

أدلة رقمية مقدمة للمحكمة

واستندت العائلة في دعواها إلى تسجيلات ومقاطع فيديو وثّق فيها سولبيرج تفاعلاته مع ChatGPT، وتزعم أنها تكشف عن نمط من الردود التي عززت عالم الأوهام الذي أصبح يعيشه، وفقًا لما ورد في ملف القضية.

مطالب العائلة ورسالة الدعوى

وأكدت عائلة الضحية أن الهدف من رفع الدعوى لا يقتصر على المساءلة القانونية، بل يهدف إلى لفت الانتباه إلى الحاجة الملحّة لتطوير أنظمة أمان أكثر صرامة، خاصة عند استخدام الذكاء الاصطناعي من قبل أشخاص يعانون من هشاشة نفسية أو اضطرابات فكرية.

 

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 990

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *