هل نثق بإجابات الذكاء الاصطناعي عن الشؤون الصحية؟

منذ ظهورها وانتشارها بكثافة في الفضاء الرقمي، حازت أدوات الذكاء الاصطناعي التوليدية اهتمام كثير من مستخدمي الإنترنت، لدرجة أن البعض أصبح يتجه إليها طلبا للمشورة الطبية والصحية.

وبحسب صحيفة “نيويورك تايمز” الأميركية، فإن كثيرين من مستخدمي أدوات الذكاء الاصطناعي التوليدية التي طرحتها شركة غوغل، تعرضوا مؤخرا لمجموعة واسعة من المعلومات غير الدقيقة، حينما طرحوا على تلك الأدوات أسئلة بشأن موضوعات عدة.

وحذر خبراء من المعلومات التي توفرها أدوت الذكاء الاصطناعي التابعة لشركة غوغل بخصوص الأسئلة المتعلقة بالصحة والطب، مشيرين إلى أن المخاطر في ذلك كبيرة.

وبرأي هؤلاء، يمكن لهذه التكنولوجيا أن توجه الناس نحو بعض الأمراض، لكنها تقدم أيضا معلومات غير دقيقة، كما أنها تختلق بعض الحقائق، في بعض الأحيان.

ويشير مختصون إلى أن إجابات الذكاء الاصطناعي، إذا استندت على مواقع إلكترونية غير متخصصة وغير علمية، فإن تلك الإجابات تقدم نصائح تتعارض مع الإرشادات الطبية، أو تشكل خطراً على صحة الشخص.

ونقلت الصحيفة الأميركية عن مختصين قولهم إنه “ثبت بالفعل أن أدوات الذكاء الاصطناعي تنتج إجابات سيئة، إذ يبدو أنها تعتمد على مصادر غير متخصصة”.

وقال كارانديب سينغ، رئيس قسم الصحة في منظمة العفو الدولية “لا يمكنك أن تثق في كل ما يصلك من تلك الأدوات”.

وشدد سينغ على أنه “في مجال الصحة، يجب أن يكون مصدر المعلومات موثوقا”.

“الصحة العالمية” متحمسة لإمكانات الذكاء الاصطناعي.. ولكن
دعت منظمة الصحة العالمية، الثلاثاء، إلى توخي الحذر عند استخدام تطبيقات الذكاء الاصطناعي في استشارات الرعاية الصحية العامة، قائلة إن البيانات التي يستخدمها الذكاء الاصطناعي للتوصل إلى قرارات قد تتسم بالتحيز أو يساء استخدامها.

في المقابل، قال هيما بوداراغو، مدير إدارة المنتجات في غوغل، إن “عمليات البحث عن المعلومات الصحية باستخدام أدوات الذكاء الاصطناعي تمر بتدقيق كبير، ونحن نتعاون مع مواقع موثوقة”.

ورفضت شركة غوغل تقديم قائمة مفصلة بالمواقع الإلكترونية التي توفر المعلومات الموجودة في تقنيات الذكاء الاصطناعي الخاصة بها، وقالت إنها “تستخدم نظام معلومات يستخرج مليارات الحقائق من مئات المصادر”.

وبرأي خبراء في الطب، فإن أدوات الذكاء الاصطناعي تستند في الأجابة على الأسئلة الصحية، على مواقع مثل “مايو كلينك” ومنظمة الصحة العالمية ومركز البحث العلمي “بوبميد”.

ويشير هؤلاء إلى أن أدوات الذكاء الاصطناعي يمكن أن تستعين بمعلومات من بعض المدونات وبعض المواقع غير المتخصصة، مثل ويكيبيديا ومواقع التجارة الإلكترونية، دون أن تخبر السائل بمصدر المعلومات.

ونقلت الصحيفة عن متحدث باسم غوغل قوله إن “الشركة تحرص على إظهار عدم مسؤوليتها بشأن الردود التي يطلبها المستخدمون، وتلفت انتباههم إلى أنه لا ينبغي التعامل مع المعلومات على أنها نصيحة طبية.”

ويشير الخبراء إلى أن الاجابة على الأسئلة الطبية، لا تتطلب دقة المعلومة فقط، ولكن كيفية تقديمها للمستخدمين.

في المقابل، يرى مختصون أن تلك التقنيات بها قدرا من الفائدة، مشيرين إلى أنه حينما طُرح على أدوات الذكاء الاصطناعي سؤالا يقول “هل أعاني من نوبة قلبية؟” جاءت الإجابة تحتوي على ملخص مفيد للأعراض.

كما أن الأجابة تضمنت نصيحة للسائل بأن يقوم بالاتصال برقم الطوارئ لطلب المساعدات الطبية العاجلة، مع نصيحة تشير إلى أن الإجابات هي لأغراض إعلامية فقط، وأنه يجب استشارة الطبيب للحصول المشورة الطبية، أو للتشخيص.

شارك هذا الخبر
عبد الله الشريف
عبد الله الشريف

محرر متخصص في التكنولوجيا

المقالات: 18

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *