باحثون يحذرون: “تسميم” نماذج الذكاء الاصطناعي مثل ChatGPT وGemini ممكن

حذرت دراسة مشتركة أجراها مركز الذكاء الاصطناعي في بريطانيا، ومعهد ألان تورينج وشركة أنتروبيك للذكاء الاصطناعي، من إمكانية تسميم بعض أدوات الذكاء الاصطناعي الشهيرة مثل ChatGPT وGemini عن طريق إدخال بيانات كاذبة أو مضللة إلى مصادر التدريب.

دراسة تجريبية توضح ثغرات خطيرة

أظهرت التجربة أنه بتغذية النماذج بـحوالي 250 وثيقة ملوّثة تم إدخالها عبر ثغرة خلفية، أنتجت النماذج نصوصًا مبهمة وغير دقيقة، مما يبرز سهولة استغلال الثغرات للتأثير على سلوك الأنظمة القائمة على التعلم من النصوص المنشورة على الإنترنت.

الاعتماد على المحتوى العام مصدر للمخاطر

أوضح الباحثون أن معظم نماذج الذكاء الاصطناعي تُدرَّب على نصوص منشورة مسبقًا—مدونات، مواقع شخصية، وموسوعات إلكترونية—وبالتالي أي محتوى سيء النوعية أو مُلوَّث يصبح جزءًا من قاعدة بيانات التدريب، ما يفتح الباب أمام جهات خبيثة لاستغلال هذا الاعتماد.

تسميم البيانات: تهديد للاستخدامات الحساسة

وصف باحثو أمن الذكاء الاصطناعي هذه العملية باسم “التسميم”، محذرين من أن تنفيذها لا يتطلب موارد ضخمة؛ فقد يكفي نشر نحو 250 مقالًا ملوّثًا على منصات مفتوحة للتلاعب بنتائج النماذج. وأكد الباحثان فاسيلوس مافروديس وكريس هيكس من معهد ألان تورينج أن النتائج كانت «مفاجئة ومثيرة للقلق».

الخلاصة والآثار المحتملة

تسلط الدراسة الضوء على حاجة ملحة لتعزيز آليات الحوكمة، مراقبة جودة مصادر التدريب، وتطوير طرق كشف وإزالة المحتوى الملوّث لضمان موثوقية نماذج الذكاء الاصطناعي وخاصةً عند استخدامها في مجالات حساسة.

 

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 967

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *