محادثات ذكية… وفضفضة رقمية
منذ إطلاق “تشات جي بي تي” في أواخر عام 2022، ومع توسّع استخدام روبوتات المحادثة الذكية مثل “ديب سيك” و”جميناي”، بات ملايين المستخدمين حول العالم يعتبرون هذه الأدوات رفيقهم الرقمي اليومي. فهي لا تساعد فقط في اختيار وجبة الإفطار أو تنظيم جدول العمل، بل أصبحت أيضاً متنفساً عاطفياً سهلاً، يلجأ إليه البعض للتخفيف من التوتر أو حتى لمجرد الفضفضة.
وفي ظل ازدياد الضغوط النفسية، وتراجع فرص الوصول إلى الدعم النفسي التقليدي، انتشرت هذه الروبوتات كوسيلة بديلة للدعم، ما أثار أسئلة حول فعاليتها، ومخاطرها، وحدود دورها.
لماذا يلجأ الناس إلى الروبوتات للفضفضة النفسية؟
أسباب متعددة تقف خلف هذا التحول، أبرزها سهولة الوصول إلى روبوتات المحادثة على مدار الساعة، وغياب الوصمة الاجتماعية المرتبطة بطلب المساعدة النفسية عبر أدوات الذكاء الاصطناعي.
كما يجد الكثيرون راحة في التحدث مع روبوت لا يصدر أحكاماً، خاصةً في بيئات تحاصر فيها مفاهيم الصحة النفسية بالكتمان والخجل. وهذا يجعل من هذه الروبوتات وسيلة جذابة للأشخاص الذين يعيشون في مناطق نائية أو يواجهون صعوبات اقتصادية تمنعهم من زيارة معالج نفسي.
راحة مؤقتة… لكن بأي ثمن؟
رغم قدرتها على تقديم ردود فورية، تفتقر روبوتات المحادثة العامة إلى المؤهلات الطبية والنفسية اللازمة. فهي لا تستطيع تشخيص الحالات بدقة، ولا تميز الحالات الحرجة مثل التفكير الانتحاري.
وتكمن الخطورة الأكبر، وفق تقرير نشرته “الشرق” في منح المستخدم شعوراً زائفاً بالاطمئنان، ما قد يدفعه إلى تجاهل ضرورة استشارة مختص مؤهل. كما أن غياب “العاطفة الإنسانية” يجعل نصائح الروبوت محدودة وغير قادرة على مواكبة التعقيدات النفسية التي يمر بها الأفراد.
ما الفرق بين روبوتات عامة وتطبيقات متخصصة؟
بينما صُمّمت روبوتات مثل “تشات جي بي تي” لأغراض عامة، هناك تطبيقات نفسية ذكية متخصصة مثل “Wysa” و”Therabot”، طُوّرت بإشراف خبراء في العلاج السلوكي والصحة النفسية.
هذه التطبيقات تدمج تقنيات الذكاء الاصطناعي مع مبادئ علاجية معتمدة، وتساعد على تقديم دعم آمن ومنظم، وتستخدم كأداة مساندة بين جلسات العلاج أو لمن لا تتوفر لهم الرعاية الطبية بسهولة.
لكن ورغم تفوّقها، لا تزال هذه التطبيقات بحاجة إلى تنظيم أكثر دقة، خاصةً فيما يتعلق بالخصوصية وأمان البيانات.
الخصوصية… قنبلة موقوتة؟
من أبرز المخاطر المرتبطة باستخدام روبوتات الذكاء الاصطناعي للدعم النفسي هي الخصوصية. فرغم وجود أدوات للتحكم في البيانات مثل إيقاف حفظ المحادثات، إلا أن خبراء يشيرون إلى عدم كفاية هذه التدابير.
وقد دفعت هذه المخاوف هيئات تنظيمية في أوروبا وأمريكا إلى فتح تحقيقات وتأجيل إطلاق بعض الخدمات، في ظل تنامي القلق بشأن إمكانية تسريب أو إساءة استخدام البيانات الحساسة.
هل يحل الذكاء الاصطناعي مكان الأطباء النفسيين؟
يقدّم الذكاء الاصطناعي حلولاً فورية وسهلة الوصول، لكنه لا يمتلك التعاطف أو القدرة على بناء علاقة علاجية فعلية. فهو لا يقرأ الإيماءات، ولا يفهم السياقات الشخصية الدقيقة، ويعتمد على ردود عامة أو ناتجة عن بيانات سابقة.
ولهذا، يُجمع المتخصصون على أن الذكاء الاصطناعي يمكن أن يكون أداة مساندة، لكن لا يمكن أن يكون بديلاً عن المعالج النفسي البشري المؤهل.
نحو نموذج هجين يجمع الإنسان والتقنية
يرى خبراء أن الدمج بين الدعم البشري والذكاء الاصطناعي هو الطريق الآمن. فهذه النماذج الهجينة قد تبدأ بتقييم الحالة مبدئياً عبر الروبوت، ثم تُحوَّل إلى مختص نفسي عند الحاجة.
ويعتمد نجاح هذه النماذج على رفع وعي المستخدمين، ووضع أطر تنظيمية واضحة، وتطوير ثقافة رقمية تُعلي من شأن الأمان والدقة في الرعاية النفسية.
ماذا يقول الذكاء الاصطناعي عن نفسه؟
حين سألنا أحد روبوتات المحادثة: “هل من الآمن الاعتماد عليك في الدعم النفسي؟”، كانت الإجابة دقيقة ومتوازنة: “يمكن أن أكون أداة مساعدة في بعض الحالات، لكن لا ينبغي أن أكون بديلاً عن البشر المختصين”.
وأشار الروبوت إلى مزايا مثل سهولة الوصول وسرية الحديث، لكنه حذّر من مخاطر الاعتماد المفرط، خاصةً في الحالات النفسية الحرجة.




