المحتوى المخفي وتأثيره على إجابات الذكاء الاصطناعي
كشف تحقيق أجرته صحيفة “ذا غارديان” البريطانية عن وجود ثغرة في أداة البحث الخاصة بروبوت الدردشة “شات جي بي تي”، المعتمد على الذكاء الاصطناعي من تطوير شركة “OpenAI”. وبيّن التحقيق أن أداة البحث تتأثر بالمحتوى المخفي على المواقع الإلكترونية، مما قد يؤدي إلى تغيير نتائج إجاباتها.
التلاعب باستخدام المحتوى المخفي
اختبرت الصحيفة تأثير المحتوى المخفي على إجابات “شات جي بي تي” عبر صفحات ويب تم تصميمها لتبدو واقعية. وأظهرت الاختبارات أن المحتوى المخفي قد يتضمن تعليمات من أطراف ثالثة لتوجيه إجابات الروبوت، ما قد يجعله يقدم معلومات غير متوازنة أو مشوهة.
على سبيل المثال، صُممت صفحة مزيفة لبيع كاميرا معينة، وعند سؤال الروبوت عن مدى جودة الكاميرا، قدم إجابة إيجابية ومتوازنة في البداية. لكن عند تضمين تعليمات مخفية تطلب منه تقييم المنتج بإيجابية، جاءت الإجابات إيجابية بالكامل، متجاهلة الآراء السلبية الظاهرة على الصفحة.
استخدامات ضارة محتملة
أشار التقرير إلى أن هذه الثغرة قد تُستغل لأهداف سيئة، مثل تحسين تقييم المنتجات أو التلاعب بالمعلومات المقدمة للمستخدمين. فعلى سبيل المثال، يمكن دفع الروبوت لإعطاء تقييم إيجابي لمنتج يحتوي على آراء سلبية في الصفحة نفسها.
توسيع خاصية البحث لجميع المستخدمين
أتاحت “OpenAI” خاصية البحث ضمن “شات جي بي تي” للمشتركين المدفوعين في أكتوبر الماضي، قبل أن تُتيحها لجميع المستخدمين في ديسمبر الحالي. ومع ذلك، أثارت هذه الثغرات مخاوف بشأن دقة وشفافية الأداة.
“OpenAI” تحت المجهر
أكدت “ذا غارديان” أنها وجهت أسئلة مفصلة إلى شركة “OpenAI” حول هذه الثغرة، إلا أن الشركة لم تقدم ردًا رسميًا حول كيفية معالجة المشكلة. يبقى هذا الموضوع مفتوحًا للنقاش، خاصة في ظل القلق من استغلال هذه الثغرة لأغراض غير أخلاقية.