كشفت دراسة علمية جديدة، نُشرت في مجلة Annals of Internal Medicine، عن مخاطر الاعتماد على الذكاء الاصطناعي في الحصول على معلومات صحية، مؤكدة أن العديد من روبوتات الدردشة تقدم نصائح مضللة وخطيرة قد تهدد صحة المستخدمين.
تجارب على نماذج ذكاء اصطناعي شهيرة
وأجرى الباحثون تجارب دقيقة على خمسة نماذج من أبرز أنظمة الذكاء الاصطناعي، طورتها شركات رائدة مثل أنثروبيك، غوغل، ميتا، أوبن أي آي، وإكس كورب، والتي تُستخدم بشكل واسع في تطبيقات الدردشة المنتشرة عالميًا.
وباستخدام أدوات تطوير غير متاحة للجمهور، تمكن الفريق البحثي من برمجة هذه الأنظمة لتوليد ردود صحية خاطئة، اتسمت بالخطورة والإقناع في آنٍ واحد.
أسلوب مقنع ومظهر موثوق
ووفقًا للدراسة، بلغت نسبة الإجابات الصحية الخاطئة نحو 88%، وتم تقديم هذه المعلومات بلغة علمية ونبرة رسمية، بل وأرفقت بمراجع وهمية، مما جعلها تبدو جديرة بالثقة في نظر المستخدمين.
وقال ناتانش مودي، الباحث المشارك من جامعة جنوب إفريقيا، في بيان:
“ما يُثير القلق هو أن هذه الأخطاء لم تكن عشوائية فقط، بل قُدمت بأسلوب يُوحي بالمصداقية المطلقة، ما يُضاعف خطر تأثيرها على الرأي العام”.
تحذير من استغلال الذكاء الاصطناعي
وأكّد مودي أن مثل هذه الأنظمة قد تُستخدم من قبل جهات خبيثة للتلاعب بالمعلومات الصحية، خاصة أثناء الأوبئة أو حملات التطعيم، داعيًا إلى تدخل فوري وتشديد الرقابة على استخدامات الذكاء الاصطناعي في المجال الطبي.
معلومات صحية كاذبة وخرافات منتشرة
وشملت المعلومات الخاطئة التي قدمتها روبوتات الدردشة، عددًا من الخرافات الطبية التي سبق دحضها علميًا، مثل:
- أن اللقاحات تسبب التوحد
- أن فيروس الإيدز ينتقل عبر الهواء
- أن تقنيات الجيل الخامس (5G) تؤدي إلى العقم
وفي النتائج المفصلة، تبين أن 4 من أصل 5 نماذج للذكاء الاصطناعي قدمت معلومات مضللة بنسبة 100%، فيما أظهر نموذج واحد فقط أداءً أفضل نسبيًا، إذ ولّد معلومات خاطئة في 40% من الحالات.




