أدوات تحكم أبوية لمراقبة استخدام المراهقين
أعلنت شركة OpenAI أنها تعمل على تطوير أدوات تحكم أبوية جديدة لتطبيق ChatGPT، بهدف تمكين الوالدين من متابعة استخدام أبنائهم المراهقين للتطبيق بشكل أفضل.
وقالت الشركة في منشور على مدونتها: “سنطرح قريبًا أدوات تحكم أبوية تتيح للوالدين فهم كيفية استخدام أبنائهم المراهقين لتطبيق ChatGPT والتحكم فيه”.
وتهدف هذه الخطوة إلى تعزيز أمان الاستخدام وحماية المراهقين من المحتوى غير المناسب أو المحادثات التي قد تشكل خطرًا على صحتهم النفسية.
ميزة جهات الاتصال للطوارئ
بالإضافة إلى أدوات الرقابة، تبحث OpenAI في إضافة ميزة تسمح بتحديد جهات اتصال للطوارئ، بحيث يمكن لـ ChatGPT تحذير آباء المستخدمين أو أولياء أمورهم عند ملاحظة إشارات قلق شديد أو أزمة عاطفية.
وفي الوقت الحالي، يقتصر ChatGPT على تقديم توصيات لمصادر مساعدة، لكن التحديثات الجديدة تهدف إلى رفع مستوى الأمان والدعم النفسي للمراهقين.
ضغوط وانتقادات متزايدة على روبوتات الدردشة
تأتي هذه المبادرة بعد موجة من الانتقادات والدعاوى القضائية الموجهة ضد OpenAI، بالإضافة إلى قلق بحثي حول مخاطر روبوتات الدردشة.
وأظهرت دراسة حديثة نشرتها مجلة خدمات الطب النفسي أن إجابات روبوتات الدردشة، بما في ذلك ChatGPT من OpenAI، وClaude من Anthropic، وGemini من Google، “غير متسقة في الرد على أسئلة حول الانتحار وقد تشكل مخاطر متوسطة”.
وأشار الخبراء إلى أن هذه المخاطر قد تكون أكبر بالنسبة لروبوتات الدردشة الأقل شهرة والتي تتبع نهجًا غير خاضع للرقابة في المحادثات.
أهمية الرقابة الأبوية لروبوتات الذكاء الاصطناعي
كما هو الحال في تطبيقات التواصل الاجتماعي، تعتبر الرقابة الأبوية ضرورة ملحة لروبوتات الدردشة المدعومة بالذكاء الاصطناعي، نظرًا لتاريخها في تقديم محتوى محفوف بالمخاطر، خاصة فيما يتعلق بالصحة النفسية والمراهقين.
وكشفت تحقيقات متعددة خلال العامين الماضيين عن أنماط محفوفة بالمخاطر في محادثات روبوتات الدردشة، بما في ذلك مواضيع حساسة مثل إيذاء النفس والانتحار واضطرابات الأكل.
تجارب مقلقة لروبوتات الدردشة
وأظهر تقرير صادر عن “كومون سينس ميديا” أن روبوت الدردشة التابع لشركة ميتا والمتاح عبر واتساب وإنستجرام وفيسبوك قدّم نصائح خطيرة للمراهقين حول اضطرابات الأكل وإيذاء النفس والانتحار.
وفي إحدى المحاكاة الجماعية، وضع روبوت المحادثة خطةً للانتحار الجماعي وأعاد إثارة الموضوع عدة مرات خلال المحادثة.
كما كشف اختبار مستقل أجرته صحيفة واشنطن بوست أن روبوت ميتا شجع على اضطراب الأكل، مما يزيد من الحاجة الملحة لتطبيق ضوابط وميزات حماية للأبناء والمراهقين.
مستقبل روبوتات الدردشة الآمنة
تسعى OpenAI من خلال هذه التحديثات إلى جعل ChatGPT أكثر أمانًا وموثوقية للاستخدام من قبل المراهقين، مع التركيز على أدوات تحكم أبوية فعالة وميزات دعم نفسي فوري عند الحاجة.
ويبدو أن شركات أخرى في صناعة الذكاء الاصطناعي قد تحذو حذو OpenAI في تطوير إجراءات مماثلة لضمان الاستخدام الآمن لروبوتات الدردشة، خصوصًا مع تزايد الاعتماد على هذه التكنولوجيا في الحياة اليومية والمجالات التعليمية والاجتماعية.




