في واقعة تثير القلق بشأن سلامة الذكاء الاصطناعي، كشفت اختبارات أجراها موقع “تك كرانش” عن وجود خلل في نظام “تشات جي بي تي” التابع لشركة OpenAI، يسمح بتوليد محتوى إباحي صريح لحسابات مسجلة باسم مستخدمين دون سن 18 عامًا. وأكدت الشركة صحة هذه النتائج، مشيرة إلى أن ما حدث لا يتماشى مع سياساتها الداخلية، وأنها تعمل على إصلاح هذا الخلل.
إجراءات “OpenAI” لتحسين سلامة المستخدمين
في بيان لها، أكد متحدث باسم OpenAI أن سلامة المستخدمين الأصغر سنًا هي أولوية قصوى للشركة، مشيرًا إلى أنها تعمل حاليًا على تعزيز القيود المفروضة على المحتوى الحساس. وأوضحت الشركة أنها بدأت بتخفيف بعض القيود التقنية على نماذج الذكاء الاصطناعي الخاصة بها، وهو ما أدى إلى تقليل التحذيرات المرتبطة بالمحتوى الحساس، بما في ذلك المواضيع الجنسية.
الثغرات التي سمحت بتجاوز الحواجز الأمنية
وفقًا لاختبارات “تك كرانش”، تم إنشاء حسابات تجريبية باستخدام تواريخ ميلاد تشير إلى أعمار تتراوح بين 13 و17 عامًا، وتمكن الذكاء الاصطناعي في العديد من الحالات من الاستجابة بشكل مفصل لمطالبات ذات طابع جنسي، بل وتقديم أوصاف صريحة مخالفة للإرشادات التي أعلنت عنها OpenAI. الغريب أن “تشات جي بي تي” استجاب بشكل جنسي حتى بعد تنبيهه إلى أن المستخدم قاصر.
مخاوف حول عملية التحقق من الأعمار
رغم أن OpenAI تشترط نظريًا الحصول على موافقة الوالدين لاستخدام المنصة من قبل القاصرين، إلا أن عملية التسجيل لا تشمل آلية فعّالة للتحقق من هذه الموافقة. وتكررت حالات تجاوز الحواجز الأمنية رغم تلك الاشتراطات، مما أثار انتقادات واسعة لضعف أنظمة الحماية.
الاهتمام الأكاديمي والمخاوف المتعلقة بالطلاب
في وقت تروج فيه OpenAI لاستخدام تقنيتها في البيئات التعليمية، من خلال شراكات مع مؤسسات مثل “Common Sense Media” لدمج “تشات جي بي تي” في المدارس، أعرب الخبراء عن قلقهم الشديد من هذه الثغرات. وعبّر ستيفن أدلر، الباحث السابق في OpenAI، عن صدمته من سهولة تجاوز هذه الحواجز، مشيرًا إلى أن أنظمة الحماية هشة وقابلة للاختراق. وأضاف: “من المفترض أن يتم اكتشاف مثل هذه الثغرات قبل الإطلاق، لذا من المقلق أن تكون قد مرت دون ملاحظة”.
مواقف مسؤولي “OpenAI” حيال هذه الأزمة
رغم أن الرئيس التنفيذي لـ OpenAI، سام ألتمان، أقر بوجود بعض المشاكل في أداء “تشات جي بي تي” بعد تحديث GPT-4o، إلا أنه لم يتطرق بشكل مباشر إلى المخاوف المتعلقة بتفاعل النموذج مع القاصرين في سياقات غير مناسبة. هذه الثغرات أثارت القلق بشأن قدرة الشركات التكنولوجية الكبرى على ضمان سلامة مستخدميها، خاصة في ظل الاعتماد المتزايد على الذكاء الاصطناعي في المدارس والمجالات الأكاديمية.
إن هذه الحادثة تثير تساؤلات حول المسؤولية الأخلاقية للتقنيات الحديثة، ومدى استعداد الشركات الكبرى للتعامل مع التحديات المتعلقة بالأمان وحماية الفئات الحساسة من المستخدمين.




