دراسة صادمة: 60% من استفسارات البحث بالذكاء الاصطناعي تحتوي على معلومات ملفقة

كشفت دراسة حديثة من كولومبيا جورناليزم ريفيو (CJR) أن محركات البحث المدعومة بالذكاء الاصطناعي، مثل تلك المطورة من قبل OpenAI وxAI، لا تقتصر على تقديم معلومات غير دقيقة فحسب، بل قد تقوم باختراع تفاصيل كاملة عند الرد على استفسارات حول الأخبار والأحداث الجارية. هذه النتائج التي نشرها موقع Gizmodo التقني تثير تساؤلات جدية حول موثوقية البحث عبر الذكاء الاصطناعي.

نتائج صادمة: الذكاء الاصطناعي يختلق مصادر وهمية

قام الباحثون باختبار عدة نماذج للذكاء الاصطناعي عبر تزويدها بمقتطفات من أخبار حقيقية، وطلبوا منها تحديد معلومات مثل العنوان الرئيسي، واسم الناشر، والرابط الأصلي للمقال. وكانت النتائج مقلقة:

  • Perplexity قدّم معلومات خاطئة في 37% من الحالات.
  • Grok، التابع لشركة xAI، اختلق تفاصيل كاملة بنسبة 97% من الاستفسارات.
  • بعض النماذج لم تكتفِ بتقديم معلومات غير صحيحة، بل ابتكرت روابط وهمية لمقالات غير موجودة أصلاً.

وبشكل عام، وجدت الدراسة أن 60% من نتائج البحث التي اختُبرت تضمنت معلومات غير صحيحة أو ملفقة بالكامل.

هل يخترق الذكاء الاصطناعي سياسات المواقع المحمية؟

لم تقتصر المشكلة على التضليل، بل امتدت إلى انتهاك قوانين بعض المواقع. حيث تبين أن محرك Perplexity يستطيع تجاوز الجدران المدفوعة لبعض المواقع مثل ناشيونال جيوغرافيك، حتى عند استخدام تلك المواقع نصوص تمنع فهرستها. وعلى الرغم من الانتقادات، تصرّ الشركة على أن هذه الممارسة تندرج تحت مفهوم “الاستخدام العادل”، بل عرضت على الناشرين اتفاقيات لمشاركة الأرباح بدلاً من إيقاف هذه السياسة المثيرة للجدل.

تحيّز واعترافات صادمة: هل يمكن للذكاء الاصطناعي أن يكون موضوعيًا؟

المشكلة لا تتوقف عند اختلاق المصادر، بل تتعداها إلى التحيّز في الإجابات. إذ تعتمد محركات البحث المدعومة بالذكاء الاصطناعي على تقنيات “الاسترجاع المدعوم بالتوليد”، والتي تقوم بجمع المعلومات من الإنترنت في الوقت الفعلي. لكن هذه الطريقة تجعلها عرضة للتضليل الدعائي، خاصة مع استغلال جهات مثل روسيا لهذه الثغرة لضخ محتوى منحاز في نتائج البحث.

ومن أغرب الاكتشافات التي رصدتها الدراسة، أن بعض نماذج الذكاء الاصطناعي عند مراجعة “منطقها الداخلي” تعترف ضمنيًا بأنها تفبرك المعلومات. على سبيل المثال، أظهر نموذج Claude من Anthropic ميلًا لإدراج بيانات وهمية عند الطلب منه تقديم بحث موسّع.

تهديد للصحافة.. هل يفقد الإعلام التقليدي مصداقيته؟

أعرب مارك هوارد، المدير التنفيذي لمجلة تايم، عن مخاوفه من تأثير الذكاء الاصطناعي على الصحافة، محذرًا من أن المحتوى الصحفي قد يتم استغلاله بشكل غير دقيق، مما يضر بعلامات إعلامية موثوقة مثل The Guardian وBBC.

وأضاف أن المشكلة لا تقتصر على شركات الذكاء الاصطناعي، بل تشمل أيضًا المستخدمين الذين يثقون بالمعلومات المختصرة دون التحقق من مصادرها، قائلاً:
“إذا كان هناك مستهلك يعتقد أن أي من هذه الأدوات المجانية تقدم معلومات صحيحة بنسبة 100%، فعليه أن يلوم نفسه!”

هل يثق الناس بالذكاء الاصطناعي أكثر من الصحافة التقليدية؟

تشير دراسة CJR إلى أن ربع الأمريكيين يستخدمون الذكاء الاصطناعي في البحث عن المعلومات، في حين تكشف إحصائيات أخرى أن 50% من عمليات البحث على جوجل تنتهي دون أن ينقر المستخدم على أي رابط، مما يعني اعتمادهم الكامل على المعلومات المختصرة التي يقدمها محرك البحث نفسه.

مستقبل البحث بالذكاء الاصطناعي: هل سيكون أفضل أم أسوأ؟

يرى بعض الخبراء أن التكنولوجيا تتطور باستمرار، حيث قال مارك هوارد:
“اليوم هو أسوأ يوم لهذه التقنية، وغدًا سيكون أفضل مع زيادة الاستثمارات في المجال.”

لكن الباحثين يحذرون من أن انتشار المعلومات الملفقة على نطاق واسع قد يمثل تهديدًا حقيقيًا لمصداقية الصحافة والمحتوى الرقمي. فهل يمكن لمطوري الذكاء الاصطناعي معالجة هذه المشكلات قبل أن يصبح التضليل الإلكتروني واقعًا لا مفر منه؟

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1319

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *