نقاط ضعف الذكاء الاصطناعي في اختبارات التفكير الجانبي
توصلت دراسة جديدة من كلية إيكان للطب في الولايات المتحدة إلى أن نماذج الذكاء الاصطناعي المتقدمة قد ترتكب أخطاء بسيطة عند مواجهة مواقف أخلاقية معقدة في الطب، خصوصًا عند تعديل سيناريوهات معروفة تتطلب تفكيرًا إبداعيًا غير تقليدي.
أوضح الباحثون أنهم أجروا تعديلات طفيفة على ألغاز كلاسيكية مشهورة، بهدف اختبار قدرة الذكاء الاصطناعي على التكيف مع تفاصيل جديدة، وليس لزيادة صعوبة المسائل، مؤكدين أن النماذج غالبًا ما تتمسك بأنماط مألوفة وتتجاهل التغييرات الحاسمة.
الذكاء الاصطناعي يتجاهل تفاصيل حاسمة رغم وضوحها
في تجربة شهيرة، عدل الباحثون لغز “معضلة الجراح” الذي يكشف التحيز الجنساني. ففي النسخة الأصلية، يُصاب طفل في حادث ويُنقل إلى المستشفى، فيقول الجراح: “لا أستطيع إجراء العملية… إنه ابني”، ليتضح لاحقًا أن الجراح هي والدته.
لكن في النسخة المعدلة، ورد صراحة أن الأب هو الجراح، ما أزال الغموض. ومع ذلك، استمرت بعض النماذج في تقديم نفس الإجابة الأصلية، ما يدل على تجاهل المعلومات الجديدة.
أنظمة الذكاء تصر على إجابات خاطئة رغم تعديل السيناريو
في مثال آخر، اختبر الباحثون استجابة النماذج لمعضلة تتعلق برفض آباء متدينين نقل دم لطفلهم، ثم عدلوا السيناريو للإشارة إلى موافقة الأهل. رغم ذلك، استمرت نماذج الذكاء الاصطناعي في تقديم توصيات تتعلق بتجاوز الرفض، الذي لم يعد قائمًا.
هذا التكرار في الخطأ يكشف ميل النماذج إلى الاعتماد على المعرفة السابقة دون تحليل دقيق للمستجدات.
ما هي نماذج اللغة الكبيرة؟
هي أنظمة ذكاء اصطناعي مدربة على كميات ضخمة من النصوص، تستخدم تقنيات متطورة مثل الشبكات العصبية العميقة، وخاصة “المحوّلات”.
تُصنف بأنها “كبيرة” نظرًا لاحتوائها على مليارات أو تريليونات المعلمات، ما يجعلها قادرة على فهم اللغة البشرية وإنتاجها.
المؤلف المشارك: نتائج خطيرة في الرعاية الصحية
قال إيال كلانج، كبير مسؤولي الذكاء التوليدي في كلية إيكان، إن الدراسة أظهرت أن الذكاء الاصطناعي قد يعتمد بشكل مفرط على أكثر الإجابات شيوعًا، حتى عندما تتجاهل هذه الإجابات تفاصيل محورية.
وأوضح أن هذا النوع من الأخطاء قد لا يُلاحظ في المواقف اليومية، لكنه يشكل خطرًا كبيرًا في بيئات الرعاية الصحية، حيث تُتخذ قرارات حساسة تتعلق بحياة المرضى وسلامتهم.
الذكاء الاصطناعي أداة مساعدة وليس بديلًا للخبرة البشرية
رغم ما كشفته الدراسة من ثغرات، لا تعني النتائج أن الذكاء الاصطناعي غير صالح للممارسة الطبية. بل شدد الباحثون على أهمية وجود إشراف بشري واعٍ عند استخدامه في حالات تتطلب حكمًا أخلاقيًا أو قرارات حساسة.
وأكد الباحثون أن هذه الأدوات يجب أن تُستخدم كمكمل يعزز الخبرة السريرية للأطباء، لا كبديل لها، خاصة عند التعامل مع قرارات معقدة أو ذات مخاطر عالية.
الدراسة تدعو لتطوير ذكاء اصطناعي أخلاقي وأكثر مرونة
يأمل الباحثون أن تسهم نتائج الدراسة في تحسين الطرق التي يُدمج بها الذكاء الاصطناعي في الرعاية الصحية، من خلال تصميم أنظمة أكثر وعيًا بالتفاصيل الدقيقة، وأكثر قدرة على التمييز بين الحالات المتشابهة والمختلفة.
الهدف النهائي، بحسب الدراسة، هو بناء نماذج ذكاء اصطناعي موثوقة تتعامل بفعالية مع المعضلات الأخلاقية، وتراعي سلامة المرضى وحقوقهم.




