كيف يختلق الذكاء الاصطناعي المعلومات؟ دراسة تكشف سر “هلوسة” النماذج اللغوية

لماذا تختلق النماذج اللغوية الكبيرة المعلومات؟ دراسة جديدة تكشف السبب

كشفت دراسة حديثة أجرتها شركة Anthropic عن بعض الآليات الداخلية التي تؤدي إلى اختلاق المعلومات في النماذج اللغوية الكبيرة، مثل نموذج Claude، حيث تبيّن أن هناك “دوائر عصبية” مسؤولة عن تحديد متى يجب تقديم إجابة دقيقة ومتى يجب رفض الإجابة.

كيف يحدث الاختلاق؟

تعتمد النماذج اللغوية الكبيرة على توقع الكلمات التالية بناءً على النص المدخل، مما يجعلها فعالة في تقديم إجابات عند توفر بيانات تدريب كافية، لكنها تواجه مشكلة في المعلومات الغامضة أو غير الموجودة في بيانات التدريب.

ووفقًا للدراسة، فإن هذا يؤدي إلى:

  • ميل النموذج إلى التخمين عند مواجهة استفسارات غير مألوفة.
  • عدم تفعيل دائرة “لا أستطيع الإجابة” بشكل صحيح، مما يدفعه لتقديم ردود غير دقيقة.
  • التعديل الدقيق للنموذج قد يساعده في رفض الإجابة بدلاً من تقديم معلومات مختلقة.

كيف تكتشف النماذج أن الإجابة غير معروفة؟

أظهرت الدراسة أن النموذج يحتوي على خلايا عصبية خاصة بالكيانات المعروفة وغير المعروفة، وعند مواجهة اسم مألوف مثل “مايكل جوردان”، يتم تنشيط دائرة “المعلومات المعروفة”، مما يدفع النموذج إلى تقديم إجابة واثقة. أما عند مواجهة اسم غير معروف، فيتم تنشيط دائرة “لا أستطيع الإجابة”، مما يدفع النموذج للاعتذار عن عدم امتلاك معلومات كافية.

هل يمكن حل مشكلة الاختلاق؟

أظهرت التجارب أن زيادة أوزان بعض الخلايا العصبية قد يجبر النموذج على الهلوسة بثقة، مما يعني أن بعض حالات الاختلاق قد تكون نتيجة خلل في تفعيل دائرة “لا أستطيع الإجابة”.

هذا البحث قد يساعد مستقبلاً في تحسين استجابة النماذج اللغوية وجعلها أكثر دقة وموثوقية، مما يقلل من مشكلة اختلاق المعلومات التي تعد من أكبر التحديات التي تواجه الذكاء الاصطناعي اليوم.

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 967

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *