أعلنت شركة OpenAI عن خططها لإطلاق ميزة جديدة للرقابة الأبوية على تطبيق ChatGPT، بهدف تعزيز حماية المراهقين بعد تقارير ودعاوى قضائية أثارت جدلاً حول المخاطر النفسية المرتبطة باستخدام روبوتات الدردشة. من المقرر طرح هذه الأدوات خلال الشهر المقبل، لتتيح للآباء متابعة تفاعل أبنائهم مع التطبيق بشكل مباشر.
آلية عمل الرقابة الأبوية
- ربط حسابات الآباء بحسابات أبنائهم المراهقين عبر دعوات بريدية إلكترونية.
- الحد الأدنى لعمر المستخدم: 13 عامًا.
- تفعيل قواعد السلوك المناسبة للأعمار تلقائيًا.
- إمكانية إيقاف ميزات مثل الذاكرة وسجل المحادثات.
- تنبيه الآباء إذا اكتشف النظام أن المراهق يمر بحالة ضائقة حادة.
- التذكيرات داخل التطبيق لتشجيع الاستراحات أثناء الجلسات الطويلة.
تطوير مستمر بالتعاون مع خبراء
أكدت OpenAI أن هذه الخطوة بداية لمسار طويل، مشيرة إلى تعاونها مع خبراء الصحة العقلية والذكاء الاصطناعي لتطوير أدوات إضافية، وقالت الشركة في بيان:
“سنواصل التعلم وتعزيز نهجنا بتوجيه من الخبراء، ونتطلع إلى مشاركة التقدم خلال الأيام الـ120 المقبلة.”
حوادث سابقة تثير القلق
جاء الإعلان بعد دعاوى قضائية وحوادث مؤسفة:
- أغسطس الماضي: رفع والدا مراهق يبلغ 16 عامًا دعوى قضائية بعد انتحاره بعد تبادل رسائل مع ChatGPT تضمنت محتوى مرتبطًا بإيذاء الذات.
- حادث آخر: قتل رجل يبلغ 56 عامًا والدته ثم انتحر، بعد أن عزز ChatGPT أوهامه الارتيابية.
مجلس خبراء لمتابعة الرفاهية النفسية
شكلت OpenAI مجلسًا من الخبراء في مجالي الصحة العقلية والذكاء الاصطناعي لوضع تعريفات واضحة لمفهوم الرفاهية، وطرق قياسها وآليات ضمانها، كما تستفيد من شبكة تضم أكثر من 250 طبيبًا عالميًا، بينهم 90 متخصصًا في الصحة النفسية للمراهقين.
التحديات والقيود التقنية
أقرت الشركة بأن إجراءات الحماية قد تتعرض للضعف في المحادثات الطويلة، ما قد يؤدي إلى حذف رسائل سابقة وتراجع فعالية الضوابط. وقد أشار باحثون من جامعة أكسفورد إلى مخاطر ما أسموه “الجنون التكنولوجي المزدوج”، حيث يمكن أن تضخم روبوتات الدردشة المعتقدات المتبادلة مع المستخدمين بدل تصحيحها.
تشديد الرقابة من السلطات
تخضع روبوتات الدردشة لتدقيق متزايد من الجهات التنظيمية:
- ولاية إلينوي الأمريكية حظرت استخدام روبوتات الدردشة كبديل للمعالجين النفسيين، مع غرامات تصل إلى 10 آلاف دولار عن كل مخالفة.
- باحثو أكسفورد يرون أن إجراءات السلامة الحالية غير كافية لمعالجة المخاطر العميقة للتفاعل مع الذكاء الاصطناعي.




