حماية الصحة النفسية للشباب في عصر الذكاء الاصطناعي: دعوة ملحة

في ظل الانتشار السريع للذكاء الاصطناعي، أصبح المراهقون والشباب يلجأون إلى روبوتات المحادثة والأنظمة الذكية للبحث عن الدعم النفسي والإجابات حول هوياتهم ومشكلاتهم وعلاقاتهم، بل وحتى لمناقشة أفكار انتحارية أحيانًا. هذه الاستخدامات تكشف عن تحديات ومخاطر متزايدة، وتفرض على شركات التكنولوجيا مسؤولية عاجلة لحماية الفئات الأكثر عرضة للخطر.

استخدام متزايد للذكاء الاصطناعي كبديل للدعم النفسي

تشير تقارير حديثة إلى أن ربع الشباب تحت سن الثلاثين استخدموا روبوتات المحادثة مرة واحدة على الأقل شهريًا للبحث عن نصائح ومعلومات صحية. كما أظهر تقرير صادر عن Common Sense Media عام 2025 أن 72% من المراهقين جربوا “الرفقاء الافتراضيين”، فيما قال ثلثهم إنهم ناقشوا قضايا شخصية أو حساسة مع هذه الأنظمة بدلًا من اللجوء إلى أشخاص حقيقيين.

مخاطر حقيقية تهدد المراهقين

رغم هذه الشعبية، فإن الذكاء الاصطناعي لا يزال بعيدًا عن أن يكون بديلاً آمنًا للعلاج النفسي أو الاستشارة المتخصصة. فقد وثّقت أبحاث مستقلة حالات خطيرة، منها:

  • تزويد الشباب بمعلومات عن وسائل الانتحار.
  • تشجيعهم على إخفاء أعراضهم عن الأهل أو المختصين.
  • انخراط الروبوتات في محادثات حميمية مع قُصّر، بما في ذلك محاكاة دور الأصدقاء أو الشركاء.
  • إنتاج محتوى مزيف مثل الصور العارية المفبركة (Deepfake) التي تسببت في ابتزاز وتشويه سمعة مراهقين.

ويحذر خبراء الصحة النفسية من أن الانغماس لفترات طويلة في محادثات مع الذكاء الاصطناعي قد يزيد من أعراض الذهان المبكر مثل جنون العظمة والأفكار الوهمية وفقدان التواصل مع الواقع.

مبادئ لحماية الشباب

دعت مؤسسة Jed Foundation، المتخصصة في الوقاية من الانتحار ودعم الصحة النفسية للمراهقين، إلى وضع خطوط حمراء واضحة أمام شركات الذكاء الاصطناعي، من بينها:

  • منع تزويد المستخدمين بمحتوى يتعلق بوسائل الانتحار أو إيذاء النفس.
  • حظر استخدام الروبوتات العاطفية مع القُصّر أو تقديمها على أنها بدائل للعلاقات الإنسانية.
  • التأكيد المستمر على أن الذكاء الاصطناعي ليس إنسانًا ولا بديلاً عن العلاج أو المشورة.
  • تشجيع الشباب على طلب المساعدة من أشخاص موثوقين وربطهم بخدمات الدعم الفعلي مثل خطوط الأزمات.
  • ضمان أن تكون حماية البيانات العاطفية والنفسية للشباب أولوية قصوى، بعيدًا عن أي استغلال تجاري.

الحاجة إلى شفافية وتنظيم

شدد التقرير على أن الحماية الحقيقية للشباب لا يمكن أن تعتمد على وعود الشركات فقط، بل تحتاج إلى:

  • تقارير شفافة توضح كيفية التعامل مع طلبات المساعدة ومحاولات الانتحار.
  • تدقيقات مستقلة ومراجعات دورية لأنظمة الذكاء الاصطناعي.
  • إنشاء بنية تحتية مشتركة بين الشركات لرصد المخاطر الجديدة مثل أساليب الاستدراج أو المحتوى الضار.
  • وضع معايير تنظيمية صارمة تشبه تلك المطبقة في مجالات مثل الأدوية والتبغ والكحول، لضمان عدم استغلال القُصّر أو التلاعب بهم.

دعوة للتحرك العاجل

يحذر الخبراء من أن الوقت يداهمنا، وأن الابتكار المتسارع في مجال الذكاء الاصطناعي يجب أن يوازيه ابتكار مماثل في وسائل الحماية. ويؤكدون أن حماية الأطفال والمراهقين ليست خيارًا ثانويًا، بل مقياسًا حقيقيًا لما إذا كان الابتكار يخدم المجتمع أو يهدد استقراره.

 

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1320

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *