تقنيات متطورة تهدد نماذج الذكاء الاصطناعي
أصبح المخترقون يستغلون الذكاء الاصطناعي لمهاجمة أنظمته نفسها، حيث ساهم تقدم بحثي جديد في جعل هجمات “الحقن الفوري” أكثر سرعة وفعالية من أي وقت مضى، مما يشكل تهديدًا حقيقيًا حتى لأكثر النماذج أمانًا، مثل “Gemini” من غوغل.
كيف تعمل هجمات الحقن الفوري؟
تعتمد هجمات الحقن الفوري على إدخال تعليمات خبيثة في النصوص التي يتعامل معها الذكاء الاصطناعي، سواء من خلال تعليق داخل كود برمجي أو نص مخفي في صفحات الويب، مما يدفع النموذج إلى تجاهل قيوده الأصلية. ووفقًا لموقع BGR التقني، يمكن لهذه الهجمات أن تؤدي إلى تسريب بيانات شخصية، أو تقديم معلومات مضللة، أو تنفيذ أوامر غير مقصودة.
“Fun-Tuning”.. تقنية جديدة تزيد خطورة الهجمات
طور باحثون جامعيون طريقة جديدة تُسمى “Fun-Tuning”، تعتمد على واجهة برمجة تطبيقات الضبط الدقيق (Fine-Tuning API) التي توفرها غوغل، لتسهيل تنفيذ هجمات الحقن الفوري على نماذج الذكاء الاصطناعي.
تعتمد التقنية على استغلال عملية التدريب لاكتشاف أفضل “البادئات” و”اللاحقات” التي يمكن إضافتها إلى الطلبات الخبيثة، مما يجعل النموذج ينفذها كما يريد المهاجم.
نتائج مثيرة للقلق
أظهرت الاختبارات أن تقنية “Fun-Tuning” حققت معدلات نجاح تصل إلى 82% في بعض نماذج “Gemini”، مقارنةً بأقل من 30% في الهجمات التقليدية. الأخطر من ذلك أن الهجمات الناجحة انتقلت بسهولة بين إصدارات مختلفة من Gemini، مما يسمح للمخترقين بنشر طلبات خبيثة على نطاق واسع.
هل يصبح الاختراق أرخص وأسهل؟
تُوفر غوغل واجهة الضبط الدقيق مجانًا، مما يجعل تكلفة تنفيذ مثل هذه الهجمات منخفضة للغاية، إذ لا تتجاوز 10 دولارات فقط من وقت الحوسبة، وهو ما يفتح الباب أمام موجة جديدة من الهجمات السيبرانية الأكثر تطورًا وفعالية.
ومع استمرار تطور هذه التقنيات، باتت الشركات الكبرى مثل غوغل مطالبة بتعزيز أنظمة الأمان الخاصة بنماذج الذكاء الاصطناعي، لمواجهة التهديدات المتزايدة التي قد تستغل نقاط الضعف في عمليات التدريب والضبط الدقيق.




