دراسة تكشف ضعف روبوتات الذكاء الاصطناعي في التمييز بين الحقيقة والخيال

أظهرت دراسة حديثة أن روبوتات الدردشة الشهيرة القائمة على الذكاء الاصطناعي، مثل «تشات جي بي تي»، تواجه صعوبة كبيرة في التمييز بين المعلومات الصحيحة والخيالية، مما يثير مخاوف بشأن انتشار المعلومات المضللة.

تفاصيل الدراسة

أجريت الدراسة على 24 نموذجاً لغوياً كبيراً، من بينها «كلود»، و«تشات جي بي تي»، و«ديب سيك»، و«جيميني». وقد طُرح على هذه الروبوتات نحو 13 ألف سؤال لتقييم قدرتها على التمييز بين الحقيقة والخيال.

وأظهرت النتائج أن الروبوتات غالباً ما تكافح لتمييز المعتقدات الخاطئة عن الحقيقية.

أداء النماذج القديمة مقابل الحديثة

ووجد الباحثون أن النماذج الأحدث (الصادرة بعد مايو 2024) تفوقت في الأداء، حيث سجلت دقة تتراوح بين 91.1٪ و91.5٪ في التمييز بين الحقيقة والخطأ. بينما حققت النماذج القديمة نسب دقة أقل، تتراوح بين 71.5٪ و84.8٪.

رغم ذلك، لا تزال المشكلة قائمة، حيث يواجه معظم الروبوتات صعوبة في معرفة الحقيقة من الخيال.

المخاطر والتداعيات

وحذر الباحثون من تداعيات هذه المشكلة، خاصة مع استخدام روبوتات الدردشة في مجالات حساسة مثل القانون والطب. فقد يؤدي عدم التمييز بين الحقيقة والخيال إلى:

  • تشخيصات طبية خاطئة.
  • تحريف الأحكام القضائية.
  • زيادة انتشار المعلومات المضللة.

توصية الباحثين

أكد الباحثون ضرورة إدخال تحسينات عاجلة على تقنيات الذكاء الاصطناعي قبل استخدامها في المجالات عالية المخاطر لضمان الاعتماد على معلومات دقيقة وموثوقة.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1320

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *