رغم التقدم الكبير.. هلوسات الذكاء الاصطناعي تتزايد وتثير القلق بشأن دقة المعلومات

بعد أكثر من عامين على انطلاقة الذكاء الاصطناعي التوليدي، أصبح استخدام روبوتات الذكاء الاصطناعي جزءًا من روتين العمل اليومي في شركات التكنولوجيا والمكاتب، وحتى لدى المستهلكين العاديين. لكن بالرغم من التوسع في الاعتماد عليها، لا توجد حتى الآن طريقة فعالة لضمان دقة المعلومات التي تنتجها هذه الأنظمة.

ارتفاع معدل الأخطاء رغم تطور القدرات

وبحسب خبراء في هذا المجال، فإن أكثر نماذج الذكاء الاصطناعي تطورًا أصبحت تُنتج أخطاءً بنسبة أكبر، وليس أقل، وهو ما يثير القلق بشأن موثوقية هذه الأنظمة، خصوصًا مع استخدامها المتزايد في مجالات حيوية.

ويقول الخبراء إن مهارات الذكاء الاصطناعي في الرياضيات قد تطورت بشكل ملحوظ، لكن في المقابل أصبح فهمها للبيانات أكثر غموضًا وتشويشًا، ما يؤدي أحيانًا إلى نتائج مضللة أو غير دقيقة.

ما هي هلوسة الذكاء الاصطناعي؟

تعتمد أنظمة الذكاء الاصطناعي على خوارزميات رياضية معقدة لتحليل كميات ضخمة من البيانات الرقمية. ومع ذلك، فهي لا تمتلك القدرة على التمييز بين المعلومات الصحيحة والخاطئة. وفي كثير من الحالات، قد “تختلق” معلومات غير صحيحة، وهي الظاهرة المعروفة باسم “الهلوسة”.

وتُعرّف هلوسات الذكاء الاصطناعي بأنها نتائج غير واقعية أو مضللة تنتج عن النموذج بسبب عوامل مثل نقص بيانات التدريب، أو التحيزات المضمّنة في البيانات، أو التفسيرات الخاطئة للسياقات المختلفة.

وفي أحد الاختبارات الحديثة، وصلت نسبة الهلوسة في النماذج الأحدث إلى 79%، وهي نسبة تُعتبر مقلقة خصوصًا في التطبيقات التي تتطلب دقة عالية مثل التشخيص الطبي أو التداول المالي.

حادثة تفضح الخلل: دعم فني يصدر سياسة وهمية

وفي مثال واقعي على هذه المشكلة، تسبب روبوت ذكاء اصطناعي مخصص للدعم الفني في برنامج “Cursor” الخاص بالمبرمجين، في حالة من الفوضى بين العملاء الشهر الماضي، بعد أن أبلغ المستخدمين بشكل خاطئ عن تغيير في سياسة الاستخدام.

أشار الروبوت إلى أنه لم يعد يُسمح باستخدام البرنامج على أكثر من جهاز، ما أثار موجة غضب على المنتديات الإلكترونية ودفع بعض المستخدمين إلى إلغاء حساباتهم.

لكن الشركة أوضحت لاحقًا في منشور رسمي: “ليس لدينا مثل هذه السياسة. يمكنك استخدام Cursor على أجهزة متعددة. للأسف، ما ورد كان رداً غير صحيح من روبوت الذكاء الاصطناعي”.

مخاوف متزايدة من الاعتماد الكلي

تسلّط هذه الحادثة الضوء على التحديات الخطيرة المرتبطة بالاعتماد على روبوتات الذكاء الاصطناعي في المهام الحساسة، وخاصةً في المجالات التي تتطلب دقة في المعلومات واتخاذ قرارات حاسمة.

ومع استمرار تطوير هذه الأنظمة، يواجه الباحثون تحديًا كبيرًا في كيفية تحسين دقة المعلومات وتقليل معدلات الهلوسة، من دون التضحية بقدرات النماذج المتقدمة في التحليل والفهم.

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 884

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *