مع تزايد استخدام أدوات الذكاء الاصطناعي مثل GPT-4o من OpenAI وGemini من Google، يشهد الإنترنت تدفقًا متزايدًا من المحتوى غير الدقيق، مما يؤدي إلى خلط الحقائق بالخيال، وفق ما نشره visiontimes.
المحتوى غير الدقيق في المجلات العلمية
أحد المجالات المقلقة هو دخول المحتوى غير المرغوب فيه إلى المجلات العلمية. وفقًا لموقع Phys.org، فقد تم نشر رسم بياني غير دقيق يظهر فأرًا بقضيب كبير بشكل غير معقول في مجلة أكاديمية معروفة قبل سحبه. كما تم سحب دراسة أخرى احتوت على رسم يظهر أرجل ذات عظام متعددة المفاصل، وهي صورة أنشأها الذكاء الاصطناعي.
على الرغم من اعتراف العلماء، بأن أدوات الذكاء الاصطناعي مثل ChatGPT يمكن أن تكون مفيدة في كتابة الأوراق البحثية أو ترجمتها، إلا أنه من الضروري فحص دقة مخرجاتها قبل نشرها.
انتشار أخطاء الذكاء الاصطناعي
تُظهِر الدراسات الأخيرة، بما في ذلك تقرير من شركة Elsevier، كيف يمكن أن يؤدي استخدام الذكاء الاصطناعي إلى انتشار محتوى غير دقيق. على سبيل المثال، تم تضمين عبارة غير ملائمة في بداية دراسة نشرتها الشركة، مما يعكس مشكلة كبيرة تتعلق بأخطاء الإهمال في الأبحاث العلمية.
أندرو جراي، أمين مكتبة جامعة كوليدج لندن، أشار إلى أن تأثير الذكاء الاصطناعي على الأبحاث العلمية كبير، حيث تم نشر ما لا يقل عن 60 ألف ورقة بحثية تتضمن استخدام الذكاء الاصطناعي في عام 2023، وهو ما يمثل أكثر من 1% من إجمالي الأوراق البحثية السنوية. ومن المتوقع أن تزداد المشكلة سوءًا في عام 2024.
التلاعب بالمحتوى والتقنيات الاحتيالية
تشير دراسة لم تُراجَع بعد من قبل باحثين في Google إلى أن إساءة استخدام الذكاء الاصطناعي أدت إلى إنشاء كميات هائلة من المحتوى المزيف. يتم التلاعب بالصور ومقاطع الفيديو والنصوص بواسطة الذكاء الاصطناعي أو إنشاؤها من الصفر ثم نشرها عبر الإنترنت. يُظهر البحث أن هذه التقنية تُستخدم لطمس الخطوط بين الأصالة والتزييف، مما يهدد بزيادة التلاعب في المعلومات.
خاتمة
ستزداد مشكلة المحتوى غير الدقيق مع التقدم السريع لأدوات الذكاء الاصطناعي، وسيحتاج مستخدمو الإنترنت إلى أدوات كشف متقدمة للتمييز بين المحتوى المشروع والمحتوى الناتج عن الذكاء الاصطناعي. الباحثون يحذرون من أن الإنتاج الضخم لمحتوى اصطناعي منخفض الجودة سيزيد من شكوك الناس تجاه المعلومات الرقمية، ويثقل كاهل المستخدمين بمهام التحقق.