أنظمة الذكاء الاصطناعي تكوّن انطباعات نفسية عن المستخدمين وسط مخاوف من التحيز وانعدام الشفافية
دراسة تكشف جانبًا مقلقًا في الذكاء الاصطناعي
كشفت دراسة حديثة صادرة عن Hebrew University of Jerusalem عن تطور مثير للقلق في تقنيات الذكاء الاصطناعي، حيث أصبحت روبوتات الدردشة قادرة على تكوين انطباعات عن المستخدمين قد تؤثر على قرارات حساسة مثل التوظيف أو الحصول على خدمات مالية.
كيف تقيم الخوارزميات المستخدمين؟
أوضحت الدراسة أن نماذج اللغة الكبيرة لا تكتفي بتحليل الأسئلة أو الطلبات، بل تقوم بتقييم السمات الشخصية للمستخدمين، مثل الكفاءة والنزاهة وحسن النية، من خلال تحليل أنماط الكتابة والإشارات داخل النصوص.
تحليل جزئي يفتقر للفهم الإنساني
تعتمد هذه الأنظمة على تفكيك شخصية المستخدم إلى عناصر منفصلة، يتم تقييم كل منها بشكل مستقل، بدلاً من النظر إلى الإنسان بصورة شاملة، ما يؤدي إلى أحكام آلية قد تفتقر للدقة والفهم الإنساني الحقيقي.
تجارب تكشف تحيزات مقلقة
في تجارب محاكاة شملت سيناريوهات مثل الإقراض واختيار مقدمي رعاية الأطفال، لم تعتمد الأنظمة فقط على البيانات الموضوعية، بل كوّنت تصورات عن مستوى الثقة في المستخدمين.
وأظهرت النتائج وجود تحيزات واضحة، حيث تأثرت التقييمات بعوامل مثل العمر والدين والجنس، حتى مع تساوي باقي البيانات.
نتائج غير متسقة بين الأنظمة
أشارت الدراسة إلى غياب معيار موحد في تقييم المستخدمين، إذ قد يحصل الشخص على تقييم إيجابي من نظام معين، بينما يتلقى تقييمًا سلبيًا من نظام آخر، ما يثير تساؤلات حول موثوقية هذه التقنيات.
تداعيات على الحياة اليومية
تحذر الدراسة من أن هذا “التقييم الخفي” قد يدفع المستخدمين إلى تغيير أسلوب تفاعلهم مع الأنظمة الذكية، في محاولة للحصول على نتائج أفضل، ما يخلق نوعًا جديدًا من القلق الرقمي.
دعوات لتعزيز الشفافية
في ظل التوسع السريع لاستخدام الذكاء الاصطناعي في مجالات حيوية، شددت الدراسة على أهمية تعزيز الشفافية وفهم آليات اتخاذ القرار داخل هذه الأنظمة، لتجنب تأثيرات سلبية غير مرئية على سمعة الأفراد وفرصهم المستقبلية.
خلاصة
تؤكد الدراسة أن الهدف من الذكاء الاصطناعي يجب أن يظل تحسين حياة البشر، وليس إنشاء طبقة خفية من التقييمات التي قد تؤثر على المستخدمين دون علمهم.




