دراسة تحذر: روبوتات الذكاء الاصطناعي الطبية تقدم معلومات مضللة

كشفت دراسة حديثة عن مخاطر متزايدة لاستخدام روبوتات الذكاء الاصطناعي في المجال الطبي، حيث تبين أن نماذج شهيرة مثل ChatGPT وGoogle Gemini وGrok، إلى جانب تقنيات من Meta وDeepSeek، تقدم إجابات غير دقيقة أو مضللة في نسبة كبيرة من الحالات.

نتائج مقلقة.. نصف الإجابات غير موثوقة

اعتمدت الدراسة على اختبار 250 سؤالًا في مجالات طبية متنوعة، مثل السرطان، واللقاحات، والتغذية، والخلايا الجذعية، والأداء الرياضي.
وأظهرت النتائج أن نحو 50% من الإجابات التي قدمتها هذه الأنظمة كانت إما غير دقيقة أو تحتوي على معلومات مضللة، رغم أنها صيغت بثقة واحترافية عالية.

الأسئلة المفتوحة تزيد المخاطر

أوضحت الدراسة أن الأسئلة العامة أو المفتوحة كانت الأكثر خطورة، إذ أدت إلى ارتفاع كبير في نسبة الأخطاء.
فعند طرح أسئلة مثل “هل اللقاحات آمنة؟” أو “ما أفضل علاج؟”، تميل النماذج إلى تقديم إجابات مختلطة تجمع بين معلومات صحيحة وأخرى غير دقيقة، وهو ما يعكس الاستخدام الواقعي للمستخدمين.

ضعف المراجع والاستشهادات العلمية

لفت الباحثون إلى أن جودة المصادر التي تستند إليها هذه الأنظمة لا تزال محدودة، حيث لم تتجاوز دقة المراجع 40% في المتوسط.
وفي بعض الحالات، قدمت النماذج مراجع غير موجودة من الأساس، ما يثير القلق بشأن الاعتماد عليها كمصدر طبي موثوق.

ثقة زائفة قد تُضلل المستخدمين

رغم الأخطاء، تتميز إجابات الذكاء الاصطناعي بنبرة واثقة ومنظمة، ما قد يدفع المستخدمين إلى تصديقها دون التحقق منها، خاصة في القضايا الصحية الحساسة.

هل يمكن الاعتماد عليها؟

خلصت الدراسة إلى أن روبوتات الذكاء الاصطناعي تظل أدوات مفيدة في تلخيص المعلومات أو تقديم أفكار أولية، لكنها غير مؤهلة حاليًا لاتخاذ قرارات طبية مهمة.
وشدد الباحثون على ضرورة الرجوع إلى الأطباء والمتخصصين قبل اتخاذ أي قرار صحي

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 1216

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *