رغم تعزيز الإنتاجية.. صورة نمطية سلبية تلاحق موظفي الذكاء الاصطناعي
كشفت دراسة حديثة عن جانب غير متوقع لاستخدام أدوات الذكاء الاصطناعي في بيئات العمل، إذ أظهرت أن الموظفين الذين يعتمدون على تقنيات مثل ChatGPT وGemini وCopilot يُنظر إليهم غالبًا على أنهم كسالى، غير أكفاء، وأقل ذكاءً مقارنة بزملائهم الذين يعتمدون على الجهد البشري التقليدي.
4400 مشارك.. ونتائج تعكس مقاومة اجتماعية للتقنيات الحديثة
أجريت الدراسة عبر أربع تجارب إلكترونية شملت 4400 شخص، طُلب منهم تخيّل مواقف افتراضية يستخدم فيها بعض الموظفين أدوات الذكاء الاصطناعي، ثم تقييمهم من حيث الصفات المهنية. وأظهرت النتائج أن معظم المشاركين صنّفوا هؤلاء الموظفين على أنهم أقل اجتهادًا، ويفتقرون للاستقلالية والثقة بالنفس، بل ووُصف بعضهم بالكسل.
تراجع فرص التوظيف لمن يعترفون باستخدام الذكاء الاصطناعي
وفي إحدى التجارب، تراجعت فرص توظيف المرشحين الذين اعترفوا باستخدام أدوات الذكاء الاصطناعي في عملهم، مقارنةً بآخرين لم يذكروا أي استخدام لتلك الأدوات، وهو ما يعكس وجود تصورات سلبية لدى مسؤولي التوظيف أو المديرين تجاه هذه التقنيات.
انطباعات سلبية تسيطر على تقييم أدوات الذكاء الاصطناعي
عند سؤال المشاركين عن مدى ملاءمة أدوات الذكاء الاصطناعي لبعض المهام المهنية، جاءت أغلب الانطباعات سلبية، ما يشير إلى وجود مقاومة نفسية وثقافية لاستخدام هذه الأدوات، على الرغم من التقارير العديدة التي تثبت قدرتها على تعزيز الكفاءة والإنتاجية.
العمل التقليدي لا يزال معيارًا في نظر الكثيرين
تشير نتائج الدراسة إلى أن القبول الاجتماعي لاستخدام الذكاء الاصطناعي في بيئات العمل لا يزال محدودًا، ويتأثر بالنظرة التقليدية التي تربط الكفاءة بالجهد البشري المباشر. وهو ما قد يحدّ من انتشار هذه الأدوات رغم ما تحمله من فرص للتطور والابتكار.




