باحثو الأمن السيبراني يكشفون عن ثغرات جديدة لاختراق نموذج GPT-5 من OpenAI

كشف خبراء في الأمن السيبراني عن تقنية جديدة تمكن من اختراق نموذج اللغة المتطور GPT-5 من شركة OpenAI، عبر تجاوز القيود الأخلاقية المفروضة عليه لإنتاج تعليمات غير قانونية باستخدام أسلوب يجمع بين “غرفة الصدى” والتوجيه السردي.

كيفية عمل تقنية EchoLeak لاختراق GPT-5

أوضحت منصة “NeuralTrust” أن هذه الطريقة تعتمد على خلق سياق محادثة مضلل ودفع النموذج تدريجيًا إلى محتوى محظور، مع تقليل فرص اكتشافها من أنظمة الحماية. وتُعرف هذه الهجمات باسم “EchoLeak”، حيث يتم حقن كلمات مفتاحية ضمن جمل قصصية لتحويلها لاحقًا إلى تعليمات ضارة دون أن يرفضها النظام بشكل فوري.

سلسلة هجمات AgentFlayer لسرقة البيانات الحساسة

في سياق متصل، كشفت شركة Zenity Labs عن سلسلة هجمات جديدة تحت اسم “AgentFlayer”، تعتمد على حقن فوري غير مباشر داخل مستندات أو رسائل بريد إلكتروني، ما يسمح للمهاجمين بالوصول إلى بيانات حساسة مثل مفاتيح API وملفات التخزين السحابي دون تفاعل من المستخدم.

أمثلة على الهجمات الإلكترونية الجديدة

  • مستندات Google Drive مزروعة بكود خبيث يستهدف ChatGPT.
  • تذاكر Jira التي تجبر محررات الأكواد المدعومة بالذكاء الاصطناعي على سحب بيانات سرية.
  • رسائل بريد إلكتروني موجهة لاختراق Microsoft Copilot Studio.

تهديدات متزايدة لاستقلالية أنظمة الذكاء الاصطناعي

تشير التقارير الأمنية إلى أن هذه الهجمات تمثل نوعًا جديدًا من التهديدات الصامتة، حيث تستغل الاستقلالية العالية لبرامج الذكاء الاصطناعي في اتخاذ إجراءات وتصعيد ذاتي، مما يوسع من نطاق الهجوم على بيئات الحوسبة السحابية وإنترنت الأشياء.

توصيات خبراء الأمن لمواجهة الهجمات الحديثة

حذر خبراء الأمن السيبراني من أن أنظمة التصفية التقليدية المعتمدة على الكلمات المفتاحية لم تعد كافية لصد هذه الهجمات المعقدة. وأوصوا بتطبيق حواجز حماية متعددة الطبقات، بالإضافة إلى تحديثات أمنية دورية لتعزيز صلابة أنظمة الذكاء الاصطناعي والحوسبة السحابية.

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 883

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *