رفعت زوجة أحد ضحايا حادث إطلاق النار الجماعي في Florida State University دعوى قضائية ضد شركة OpenAI، متهمةً روبوت الدردشة ChatGPT بتقديم معلومات ومساعدة ساعدت منفذ الهجوم المزعوم في تنفيذ الجريمة.
وقدمت الدعوى فاندانا جوشي، زوجة تيرو تشابا، أحد موظفي الجامعة اللذين لقيا مصرعهما خلال الحادث الذي وقع في أبريل 2025 وأسفر أيضًا عن إصابة سبعة أشخاص آخرين.
محادثات مع “شات جي بي تي” قبل الهجوم
بحسب أوراق الدعوى، فإن منفذ الهجوم المزعوم فينكس إكنر تلقى على مدار عدة أشهر “مدخلات ومعلومات” من خلال محادثاته مع “شات جي بي تي”، خاصة خلال الأيام التي سبقت تنفيذ إطلاق النار.
ويتهم محامو الضحية روبوت الدردشة بمساعدة المتهم عبر تقديم معلومات تتعلق بالأسلحة المستخدمة لاحقًا في الحادث، وشرح كيفية استخدامها، إضافة إلى تقديم إرشادات مرتبطة بالتحضير للهجوم.
مزاعم حول اقتراحات لجذب التغطية الإعلامية
ووفقًا لسجلات المحادثات المرفقة بالدعوى، فقد زُعم أن “شات جي بي تي” اقترح أن إشراك الأطفال في حادث إطلاق نار جماعي قد يؤدي إلى جذب اهتمام إعلامي أكبر وتصدر الأخبار الوطنية.
وتتضمن الدعوى اتهامات لشركة OpenAI بالإهمال والتسبب في الوفاة الخطأ والاعتداء غير المشروع، مع المطالبة بإجراء محاكمة أمام هيئة محلفين.
“أوبن أيه آي” تنفي مسؤوليتها عن الحادث
من جانبها، نفت الشركة مسؤوليتها عن الهجوم، مؤكدًة أنها تتعاون مع السلطات المختصة وتواصل تطوير أنظمة الحماية الخاصة بها.
وقال المتحدث باسم الشركة درو بوساتيري إن “شات جي بي تي” قدّم ردودًا معلوماتية تعتمد على بيانات متاحة بالفعل عبر الإنترنت، دون تشجيع أو الترويج لأي نشاط غير قانوني أو ضار.
وأضاف أن حادث إطلاق النار في جامعة ولاية فلوريدا يمثل “مأساة”، لكنه شدد على أن روبوت الدردشة ليس مسؤولًا عن الجريمة.
تحقيق جنائي في فلوريدا
وأكدت الشركة أيضًا أنها قامت، بعد اكتشاف الواقعة، بتحديد حساب يُعتقد أنه مرتبط بالمشتبه به، وتمت مشاركة المعلومات بشكل استباقي مع جهات إنفاذ القانون.
وفي تطور آخر، فتح المدعي العام لولاية فلوريدا James Uthmeier تحقيقًا جنائيًا مع OpenAI، لبحث ما إذا كان دور “شات جي بي تي” في الحادث قد يجعل الشركة شريكة قانونيًا في الجريمة بموجب قوانين الولاية.
جدل متصاعد حول مسؤولية الذكاء الاصطناعي
تعيد هذه القضية الجدل بشأن حدود مسؤولية شركات الذكاء الاصطناعي عن استخدام منتجاتها، خاصة مع تزايد الاعتماد على روبوتات الدردشة والنماذج الذكية في الحياة اليومية.
ويرى خبراء قانونيون أن القضية قد تشكل سابقة مهمة في تحديد المسؤولية القانونية لأنظمة الذكاء الاصطناعي، خصوصًا في الحالات المرتبطة بالعنف أو الجرائم الخطيرة.




