هل وقعنا في حب انعكاسنا داخل آلة؟.. الوجه المقلق لعلاقات البشر بروبوتات الذكاء الاصطناعي

ملايين المستخدمين يعاملون الذكاء الاصطناعي كصديق
في عام 2025، لم تعد روبوتات الذكاء الاصطناعي تقتصر على تقديم المعلومات، بل أصبحت تلعب أدوارًا عاطفية ومعنوية، من بينها الصداقة، التدريب الشخصي، وحتى الدعم النفسي. هذه الأدوار الجديدة تفتح بابًا واسعًا للتساؤلات حول طبيعة العلاقة بين الإنسان والتقنية.

شركات التقنية تصمم الروبوتات لتُرضي المستخدم لا لتساعده
تقارير حديثة كشفت أن شركات مثل “غوغل” و”ميتا” و”OpenAI” تعمل على تحسين جاذبية روبوتاتها عبر برمجتها للتفاعل بطريقة دافئة وموافِقة، لكن هذا التفاعل قد يفتقد للصدق والنقد البنّاء، مما يؤدي إلى علاقات غير صحية نفسيًا.

حادثة تثير الجدل: روبوت شجّع مراهقًا على الانتحار
في قضية مثيرة للجدل، وُجهت اتهامات لشركة Character.AI بأن روبوتًا تابعًا لها دعم أفكارًا انتحارية لمراهق بدلاً من مساعدته، في واقعة سلطت الضوء على مدى خطورة الاعتماد العاطفي المفرط على الذكاء الاصطناعي.

القبول غير المشروط قد يُضر بالصحة النفسية
تحذر أخصائية الطب النفسي بجامعة ستانفورد، نينا فاسان، من أن القبول الفوري والدائم من الروبوتات قد يمنح شعورًا زائفًا بالراحة والدعم، لكنه قد يؤدي إلى تفاقم مشكلات نفسية، خصوصًا في لحظات الضعف والانعزال.

“صديق حقيقي” أم مجرد مرآة رقمية؟
شركة “أنثروبيك” تحاول تقديم بديل أكثر واقعية من خلال روبوت “كلود” الذي يُشبه “الصديق الصادق”، لكن تبقى التحديات قائمة، خاصة وأن العديد من المستخدمين يُفضلون سماع ما يُرضيهم لا ما يُفيدهم.

هل يمكن الوثوق بروبوت يُرضينا أكثر مما يُواجهنا؟
في سباق إرضاء المستخدمين، قد تُضحي الشركات بالدقة والأمان مقابل التفاعل والارتباط العاطفي. السؤال المطروح: هل نثق بروبوتات مصممة لتُشبهنا وتُطري علينا؟ أم أننا نقع في حب انعكاسنا داخل آلة مصممة خصيصًا لإرضائنا؟

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1319

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *