مخاوف بشأن دقة استجابات الذكاء الاصطناعي في المجالات الحساسة
أثارت التوجيهات الجديدة التي أصدرتها “جوجل” لفريق العمل على مشروع “Gemini” قلقًا بشأن نشر معلومات غير دقيقة، خاصة فيما يتعلق بموضوعات حساسة مثل الرعاية الصحية. يُطلب من المتعاقدين، الذين يعملون مع شركة “GlobalLogic” المملوكة لـ “هيتاشي”، تقييم استجابات الذكاء الاصطناعي بناءً على معايير مثل “الصدق”، حتى في مجالات قد تكون خارج نطاق خبرتهم.
إلغاء خيار تخطي المطالبات
في السابق، كان يُسمح للمتعاقدين بتخطي المطالبات التي تطرح أسئلة متخصصة إذا لم تكن لديهم الخبرة الكافية، مثل أمراض القلب أو الرياضيات المتقدمة. إلا أن “جوجل” أصدرت توجيهات جديدة تمنع تخطي مثل هذه المطالبات. وبدلاً من ذلك، يُطلب من المتعاقدين تقييم الأجزاء التي يمكنهم فهمها، مع إضافة ملاحظة تشير إلى نقص المعرفة المتخصصة لديهم.
تغيير جذري في الإرشادات
وفقًا للمراسلات الداخلية، كانت التعليمات القديمة تنص على: “إذا لم تكن لديك خبرة كافية لتقييم المطالبة، يُرجى تخطي المهمة”. أما الآن، فتشير التوجيهات إلى: “يجب عدم تخطي المطالبات التي تتطلب معرفة متخصصة”، مما يضع عبئًا إضافيًا على المتعاقدين لتقييم مواضيع قد لا يمتلكون المعرفة الكافية حولها.
مخاطر تتعلق بدقة المعلومات
هذا التغيير أثار مخاوف بشأن دقة استجابات “Gemini”، خصوصًا في موضوعات تتعلق بقضايا تقنية أو صحية معقدة، مثل الأمراض النادرة. وقد يؤدي ذلك إلى نتائج غير موثوقة، حيث يتم تكليف متعاقدين بتقييم استجابات في مجالات لا يمتلكون فيها خبرة كافية، مما يثير التساؤلات حول مدى مصداقية المعلومات التي يقدمها النموذج.
تداعيات على مستقبل الذكاء الاصطناعي
هذا التطور يُظهر التحديات التي تواجه الشركات الكبرى في تحسين دقة نماذج الذكاء الاصطناعي وضمان تقديم معلومات موثوقة للمستخدمين، خصوصًا في مجالات حيوية مثل الرعاية الصحية. ويرى الخبراء أن الحاجة أصبحت مُلحة لتطوير آليات تقييم أكثر شفافية ودقة لضمان جودة المعلومات التي يتم تقديمها.