الذكاء الاصطناعي في اتخاذ القرارات: هل يعكس التحيزات المعرفية البشرية؟

تزايدت استخدامات النماذج اللغوية الكبيرة مثل «تشات جي بي تي» من «أوبن إيه آي» في العديد من المجالات، نظرًا لقدرتها على توليد نصوص تشبه الكتابة البشرية وتقديم رؤى متنوعة. ومع ازدياد اعتماد المؤسسات على هذه النماذج في عملية اتخاذ القرارات، يطرح سؤال جوهري: هل تظهر هذه النماذج نفس التحيزات المعرفية التي تؤثر على الأحكام البشرية؟

التحيزات المعرفية في الذكاء الاصطناعي

نشرت مجلة «Manufacturing & Service Operations Management» دراسة حديثة تستعرض مدى تأثير الانحيازات المعرفية البشرية على الذكاء الاصطناعي. تناولت الدراسة ما إذا كان «ChatGPT» يظهر سلوكيات مشابهة للانحيازات البشرية عند اتخاذ قرارات في سياق إدارة العمليات.

أنماط التحيزات البشرية في الذكاء الاصطناعي

أظهرت الدراسة أن النماذج اللغوية الكبيرة قد تعكس بعض الأنماط المعرفية البشرية، خاصة في مواقف تتطلب اتخاذ قرارات ذات طابع شخصي أو ذاتي. على سبيل المثال، أظهر «ChatGPT» ميلاً لتفضيل الخيارات الآمنة وتجنب المخاطر عند التعامل مع الغموض أو عدم اليقين، وهو سلوك مشابه للبشر في مثل هذه الظروف.

اتساق قرارات الذكاء الاصطناعي عبر السياقات

أظهرت نتائج الدراسة أن النماذج اللغوية الكبيرة تحافظ على اتساق ملحوظ في طريقة اتخاذ القرارات، حتى عندما تتغير السياقات. فقد أثبت «ChatGPT» قدرته على تقديم قرارات مدروسة ومتسقة سواء كانت في سياقات تقليدية أو سياقات متعلقة بإدارة العمليات.

تطور الأداء بين النسخ

تمت مقارنة نسختين من «ChatGPT» (GPT-3.5 وGPT-4) في الدراسة. وجدت الدراسة أن النسخة الأحدث، GPT-4، كانت أكثر دقة في المسائل الرياضية، لكنها أظهرت مستويات أعلى من التحيّزات في المسائل التي تتعلق بالتفضيلات الشخصية. وهذا يشير إلى أن التقدم في قدرات النموذج يمكن أن يُحسن الأداء في بعض المهام بينما يزيد من احتمالية التحيّز في مهام أخرى.

مخاطر الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات

تحذر الدراسة من مخاطر الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات دون إشراف بشري. على الرغم من أن «ChatGPT» يمكن أن يكون أداة فعالة في اتخاذ قرارات عقلانية وقائمة على قواعد ثابتة، إلا أنه قد يعكس تحيزات بشرية في المواقف التي تتطلب حكمًا ذاتيًا. لذلك، يُنصح بتطبيق آليات مراقبة بشرية لضمان اتخاذ قرارات عادلة وموضوعية.

أبعاد أخلاقية لاستخدام الذكاء الاصطناعي في بيئات العمل

تتطرق الدراسة أيضًا إلى الأبعاد الأخلاقية المرتبطة باستخدام الذكاء الاصطناعي في اتخاذ القرارات. إذا كانت النماذج تعكس التحيزات المعرفية البشرية، فقد يؤدي ذلك إلى تعزيز الأخطاء والتمييزات القائمة بالفعل في المجتمع. من هنا تأتي أهمية مراقبة أداء هذه النماذج باستمرار وتطوير إرشادات أخلاقية لضمان استخدامها بشكل عادل وشفاف.

التوصيات للإدارة في بيئات العمل

  • استخدام الذكاء الاصطناعي في القرارات المنطقية: يمكن استخدام النماذج اللغوية الكبيرة في اتخاذ قرارات تستند إلى قواعد واضحة أو حسابات رياضية، حيث أظهرت النماذج أداءً عقلانيًا ودقيقًا في هذه المجالات.
  • ضرورة الإشراف البشري في القرارات ذات الطابع الشخصي: يجب أن يتم إشراف بشري في الحالات التي تتطلب أحكامًا ذاتية أو تفضيلات فردية لتفادي التحيّزات.
  • اختيار النسخة الأنسب من النماذج: عند اختيار النسخة الأنسب من «ChatGPT»، يجب على المؤسسات الموازنة بين التكلفة والأداء، حيث قد يتطلب استخدام النسخ الأحدث إشرافًا أكبر في بعض الحالات.

خلاصة

تقدم الدراسة رؤى مهمة حول كيفية تصرف النماذج اللغوية الكبيرة مثل البشر، وكيف يمكن أن تُحسن هذه النماذج بعض المهام بينما تعكس التحيّزات البشرية في مهام أخرى. من خلال فهم هذه التحيّزات ومعالجتها بوعي، يمكن للمؤسسات الاستفادة من الذكاء الاصطناعي بشكل آمن وفعّال، مما يساهم في تحسين اتخاذ القرارات وتقليل الأخطاء.

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 468

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *