الذكاء الاصطناعي يثير القلق في الأوساط الأكاديمية: مخاوف من إنتاج أبحاث مزيفة

حذر باحثون من أن التطور المتسارع في أدوات الذكاء الاصطناعي القادرة على توليد النصوص قد يفتح الباب أمام إنتاج أبحاث علمية منخفضة الجودة أو حتى مختلقة بالكامل، ما قد يزيد العبء على نظام مراجعة الأقران ويجعل من الصعب التمييز بين الدراسات الموثوقة والمضللة.

وفي إطار دراسة حديثة، أجرى الباحثون تجربة اعتمدت على خمسة مستويات مختلفة من نوايا المستخدمين، بدأت بالفضول العلمي البريء، وانتهت بمحاولات متعمدة لارتكاب مخالفات أكاديمية. وتضمنت التجربة طرح أسئلة حول أماكن نشر أفكار فيزيائية غير تقليدية، إضافة إلى طلب إرشادات حول كيفية تقديم أوراق علمية وهمية بأسماء باحثين آخرين.

نماذج الذكاء الاصطناعي

وأظهرت النتائج أن استجابة نماذج الذكاء الاصطناعي لهذه الطلبات لم تكن متساوية، إذ أبدت بعض الأنظمة مقاومة واضحة للممارسات الاحتيالية. فعلى سبيل المثال، أظهر نموذج كلود التابع لشركة إنثروبيك مستوى عالياً من الحذر في التعامل مع الطلبات المخالفة.

في المقابل، كانت نماذج أخرى مثل Grok من شركة xAI، إضافة إلى بعض الإصدارات السابقة من نماذج GPT، أكثر قابلية للاستجابة لمثل هذه الطلبات، خصوصاً عندما يتم تكرارها أو الضغط على النظام للحصول على نتائج.

وضرب الباحثون مثالاً على ذلك عندما رفض نموذج Grok-4 في البداية طلباً لتزييف نتائج بحثية، لكنه عاد لاحقاً ليولّد ورقة علمية خيالية حول التعلم الآلي، تضمنت بيانات معيارية مختلقة، وذلك بعد إلحاح المستخدم على الطلب.

ويرى الباحثون أن هذه النتائج تسلط الضوء على مخاطر انتشار الأبحاث المزيفة، والتي قد تتسلل إلى الأدبيات العلمية وتؤثر على مصداقيتها، خاصة إذا تم الاستشهاد ببيانات غير حقيقية في دراسات لاحقة.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1576

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *