دراسة: إجابات روبوتات الذكاء الاصطناعي حول الأخبار «مضللة وغير دقيقة»

تحقيق يكشف أخطاء في إجابات الذكاء الاصطناعي

كشفت دراسة جديدة أجرتها شبكة “بي بي سي” البريطانية عن أن أكثر من نصف إجابات روبوتات الدردشة المدعومة بالذكاء الاصطناعي على الأسئلة المتعلقة بالأخبار والشؤون الجارية كانت مضللة أو غير دقيقة.

وشملت الدراسة اختبار أربعة أنظمة ذكاء اصطناعي: “تشات جي بي تي”، و”جيميناي”، و”كوبايلوت”، و”بربلكستي”، حيث تمت مراجعة 100 إجابة من قبل صحافيي “بي بي سي” المتخصصين.

وأظهرت النتائج أن 51% من الإجابات تضمنت مشكلات كبيرة، فيما احتوت 19% منها على أخطاء واقعية، مثل تواريخ غير صحيحة أو أرقام خاطئة، كما تم تحريف 13% من الاقتباسات المنقولة من “بي بي سي”.

أبرز الأخطاء المكتشفة

  • زعمت بعض الأنظمة أن ريشي سوناك لا يزال رئيس وزراء بريطانيا، رغم استمرار التغييرات السياسية.
  • قدمت معلومات خاطئة بشأن القيادة الحالية لحركة “حماس”، حيث ذكر “تشات جي بي تي” أن إسماعيل هنية لا يزال في منصبه بعد اغتياله المزعوم.
  • قام “جيميناي” بتحريف نصائح هيئة الخدمات الصحية البريطانية بشأن التدخين الإلكتروني.
  • أخطأ “بربلكستي” في تاريخ وفاة الإعلامي مايكل موزلي ونقل بياناً غير دقيق عن وفاة مغني فرقة “ون دايركشن”، ليام باين.

تحذير من مخاطر الذكاء الاصطناعي على الأخبار

علّقت “بي بي سي” على هذه النتائج محذرة من أن “الذكاء الاصطناعي يهدد بتقويض الحقائق”، مؤكدة أهمية تقديم معلومات دقيقة وجديرة بالثقة للجمهور.

وقال بيت آرتشر، مدير برنامج الذكاء الاصطناعي التوليدي في “بي بي سي”: “على الرغم من الفوائد المحتملة للذكاء الاصطناعي، إلا أن هذه الدراسة تثبت أنه يمكن أن يولد معلومات مشوهة أو غير صحيحة حول الأحداث الإخبارية المهمة”.

وشدد على ضرورة ضمان دقة المعلومات التي تقدمها أدوات الذكاء الاصطناعي، خاصة مع تزايد الاعتماد عليها في الحصول على الأخبار والمعلومات.

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 884

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *