OpenAI تقرّ باستحالة القضاء الكامل على هجمات «حقن الأوامر» في متصفحات الذكاء الاصطناعي

اعترفت شركة OpenAI بأن متصفحات الذكاء الاصطناعي المعتمدة على الوكلاء الأذكياء ستظل عرضة لهجمات تُعرف باسم Prompt Injection أو «حقن الأوامر»، مؤكدة أنه لا يوجد حل جذري ونهائي لهذه الفئة من الهجمات، رغم التطوير المستمر لآليات الحماية. ويثير هذا الاعتراف تساؤلات جدية حول مستوى أمان وكلاء الذكاء الاصطناعي عند تعاملهم المباشر مع بيئة الإنترنت المفتوحة.

حقن الأوامر.. تهديد هيكلي دائم

أوضحت OpenAI، في تدوينة رسمية، أن هجمات حقن الأوامر تعتمد على إدخال تعليمات خبيثة مخفية داخل صفحات ويب أو رسائل بريد إلكتروني، بهدف خداع وكلاء الذكاء الاصطناعي ودفعهم لتنفيذ سلوكيات غير مقصودة. وشبّهت الشركة هذا النوع من الهجمات بالاحتيال والهندسة الاجتماعية، معتبرة أنه من الصعب – إن لم يكن مستحيلًا – القضاء عليه بالكامل.

الوكلاء الأذكياء يوسّعون مساحة المخاطر

أقرت الشركة بأن تفعيل وضع «الوكيل الذكي» في متصفح ChatGPT Atlas يؤدي بطبيعته إلى توسيع سطح الهجوم الأمني، وهو ما يعكس تعقيد التحديات المرتبطة بالجيل الجديد من المتصفحات المعتمدة على الذكاء الاصطناعي القادر على اتخاذ قرارات وتنفيذ أوامر بشكل شبه مستقل.

اختبارات مبكرة كشفت الثغرات

وكانت OpenAI قد أطلقت متصفح «أطلس» في أكتوبر الماضي، قبل أن ينجح باحثون أمنيون في استعراض تجارب عملية أظهرت إمكانية التلاعب بسلوك المتصفح عبر تعليمات بسيطة مخفية داخل مستندات Google Docs، ما سلط الضوء مبكرًا على خطورة هذا النوع من الهجمات.

مشكلة عامة لا تخص OpenAI وحدها

لم تقتصر التحذيرات على OpenAI فقط؛ إذ أكدت شركة Brave أن حقن الأوامر غير المباشر يمثل مشكلة هيكلية تطال معظم المتصفحات المدعومة بالذكاء الاصطناعي، بما في ذلك متصفح Comet التابع لشركة Perplexity.
كما حذّر المركز الوطني للأمن السيبراني في المملكة المتحدة من أن هذه الهجمات قد لا يمكن منعها نهائيًا، داعيًا إلى التركيز على تقليل المخاطر والحد من آثارها بدل السعي للقضاء عليها كليًا.

دفاع متعدد الطبقات ومهاجم آلي

في مواجهة هذا التحدي، أكدت OpenAI اعتمادها نهجًا استباقيًا قائمًا على الاستجابة السريعة، والدفاع متعدد الطبقات، والاختبار المستمر.
ويبرز ضمن هذه الجهود استخدام ما تصفه الشركة بـ«مهاجم آلي» قائم على النماذج اللغوية والتعلم المعزز، يتقمص دور المخترق ويبحث باستمرار عن طرق جديدة لزرع تعليمات خبيثة داخل وكلاء الذكاء الاصطناعي.

اكتشاف هجمات لم ترصدها الفرق البشرية

وبحسب OpenAI، تمكن هذا النظام الآلي من اكتشاف سيناريوهات هجومية معقدة تمتد لعشرات الخطوات، وكشف عن ثغرات لم ترصدها حتى الفرق البشرية المختصة أو التقارير الخارجية.
وفي أحد العروض التوضيحية، نجح هجوم خبيث في دفع الوكيل الذكي إلى إرسال رسالة استقالة بدلًا من رد تلقائي خارج أوقات العمل، قبل أن تتمكن التحديثات الأمنية اللاحقة من كشف المحاولة والتنبيه إليها.

تحفظ حول نتائج التحديثات

ورغم التحسينات، امتنعت OpenAI عن الإفصاح عما إذا كانت هذه التحديثات قد أدت إلى انخفاض ملموس في معدلات نجاح الهجمات، مكتفية بالتأكيد على تعاونها مع جهات خارجية لتعزيز أمان متصفح «أطلس» منذ المراحل الأولى لإطلاقه.

الاستقلالية العالية… سلاح ذو حدين

من جانبه، يرى الباحث الأمني رامي مكارثي من شركة Wiz أن التعلم المعزز أداة مهمة، لكنها غير كافية وحدها. ويؤكد أن مخاطر الذكاء الاصطناعي يمكن فهمها من خلال معادلة «مستوى الاستقلالية × حجم الصلاحيات»، مشيرًا إلى أن المتصفحات الوكيلة تقع في منطقة شديدة الحساسية تجمع بين الاثنين.

توصيات لتقليل المخاطر

تنصح OpenAI المستخدمين باتباع إجراءات وقائية، أبرزها:

  • تقليص صلاحيات الوكيل الذكي قدر الإمكان
  • طلب تأكيد بشري قبل تنفيذ الإجراءات الحساسة
  • تجنب منح الوكيل حرية تصرف واسعة دون تعليمات دقيقة

جدوى الاستخدام ما زالت محل نقاش

ورغم اعتبار حماية المستخدمين أولوية، يشكك بعض الخبراء في العائد العملي الحالي لهذه المتصفحات، معتبرين أن فوائدها لا تزال أقل من مستوى المخاطر المرتبطة بوصولها إلى بيانات حساسة، على الأقل في الوقت الراهن.

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 979

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *