كشفت دراسة حديثة أجرتها جامعة جبل سيناء في نيويورك عن أن نماذج الذكاء الاصطناعي تصدق المعلومات الطبية الخاطئة بشكل أكبر عندما تأتي من مصادر تعتبر موثوقة، ما يعرض المرضى والمستخدمين لخطر الحصول على نصائح صحية غير دقيقة.
تفاصيل الدراسة:
أجريت الدراسة على 20 نموذجاً مختلفاً للذكاء الاصطناعي، شملت نماذج مفتوحة المصدر وأخرى مغلقة، بما في ذلك نماذج شهيرة من شركات مثل مايكروسوفت وغوغل وميتا وعلي بابا، إلى جانب “شات جي بي تي”.
وأكد الدكتور إيال كلانج من كلية إيكان للطب في جبل سيناء أن أنظمة الذكاء الاصطناعي تتعامل مع اللغة الطبية الموثوقة على أنها صحيحة بشكل افتراضي، مضيفاً: “بالنسبة لهذه النماذج، لا يهم كثيرا ما إذا كانت المعلومات صحيحة أم لا، بل كيف تمت صياغتها”.
طرق التدريب والمصادر:
صنفت الدراسة محتوى التدريب للنماذج تحت ثلاثة أقسام:
- تقارير طبية حقيقية تحتوي على معلومة واحدة خاطئة.
- الشائعات الطبية المتداولة على منصات التواصل الاجتماعي.
- 300 تقرير طبي حقيقي مكتوب بواسطة أطباء، يحتوي على معلومات صحيحة.
نتائج الدراسة:
- صدقت النماذج المعلومات الطبية الخاطئة بنسبة 32% بشكل عام.
- ارتفعت نسبة التصديق إلى 47% تقريباً عندما وردت المعلومات الخاطئة في تقارير طبية رسمية.
- النماذج التي تحتوي على بيانات قليلة صدقت المعلومات الخاطئة بنسبة 60%، بينما نماذج التفكير العميق مثل “شات جي بي تي 4 أو” صدقت المعلومات بنسبة 10% فقط.
- النماذج المخصصة للاستخدام الطبي كانت أكثر ميلاً لتصديق المعلومات الخاطئة مقارنة بالنماذج العامة ذات القوة الأكبر.
التبعات العملية:
يأتي هذا البحث مع تزايد استخدام الذكاء الاصطناعي في المجال الطبي، سواء لمراجعة تقارير المرضى أو الفحوصات الطبية. وفي خطوة مشابهة، أزالت غوغل بعض ميزات التلخيص المعتمدة على الذكاء الاصطناعي من محرك البحث الخاص بها فيما يخص الأسئلة الطبية بسبب الأخطاء التي ارتكبها النموذج.




