ثغرة جديدة في خوادم OpenAI تهدد بيانات مستخدمي شات جي بي تي

خبراء الأمن يحذرون من تسريب البيانات الحساسة

حذّر خبراء الأمن السيبراني من ثغرة أمنية خطيرة في أداة البحث العميق من شات جي بي تي، تُعرف باسم “ShadowLeak”، والتي تسمح بتسريب بيانات المستخدمين الحساسة من خوادم OpenAI دون أي تفاعل مباشر من المستخدمين.
وأكدت شركة “رادوير” أن هذه الثغرة تعمل بشكل مستقل عن نقاط النهاية والشبكات، ما يجعل اكتشافها من قبل فرق أمن المؤسسات صعبًا للغاية.

طريقة عمل ثغرة “ShadowLeak”

أوضح ديفيد أفيف، كبير مسؤولي التكنولوجيا في “رادوير”، أن الهجوم لا يتطلب أي نقرة أو تفاعل من المستخدمين، قائلاً: “كل شيء يحدث بالكامل خلف الكواليس من خلال إجراءات وكلاء مستقلة على خوادم OpenAI السحابية”.
ويعمل شادو ليك بشكل مستقل عن سير العمل التقليدي، مما يمكن المهاجمين من استخراج معلومات حساسة من البريد الإلكتروني وبيانات إدارة علاقات العملاء والتقارير الداخلية للشركات، دون أي إشارات مرئية أو علامات تُشير للاختراق.

مخاطر الثغرة على الشركات

أكد باسكال جينينز، مدير استخبارات التهديدات السيبرانية في “رادوير”، أن الشركات التي تعتمد على الذكاء الاصطناعي لا يمكنها الاعتماد على الضمانات المدمجة لمنع إساءة الاستخدام. وأضاف: “يمكن التلاعب بسير العمل الذي يعتمد على الذكاء الاصطناعي بطرق غير متوقعة، وغالبًا ما تتجاوز نواقل الهجوم هذه قدرات الرؤية والكشف التي توفرها حلول الأمن التقليدية”.
وتُعد هذه الثغرة أول عملية تسريب بيانات من جانب الخادم دون نقرة واحدة، مع احتمالية تعرض ملايين المستخدمين التجاريين للخطر، خاصة مع وجود أكثر من 5 ملايين مستخدم مدفوع لأداة شات جي بي تي.

نصائح لحماية بيانات المؤسسات

للتعامل مع هذه الثغرة وتقليل المخاطر، يقدم خبراء الأمن السيبراني مجموعة من الإجراءات الوقائية:

  1. تطبيق دفاعات سيبرانية متعددة الطبقات للحماية من أنواع متعددة من الهجمات في آن واحد.
  2. مراقبة سير العمل المُدار بالذكاء الاصطناعي بانتظام للكشف عن أي نشاط غير اعتيادي أو تسريبات محتملة.
  3. استخدام أفضل حلول مكافحة الفيروسات على جميع الأنظمة للحماية من البرامج الضارة التقليدية.
  4. الحفاظ على حماية قوية ضد برامج الفدية لحماية المعلومات الحساسة من أي تهديدات جانبية.
  5. فرض ضوابط وصول صارمة وأذونات دقيقة للمستخدمين على أدوات الذكاء الاصطناعي التي تتفاعل مع البيانات الحساسة.
  6. وجود إشراف بشري دائم عند وصول وكلاء الذكاء الاصطناعي المستقلين إلى المعلومات الحساسة أو معالجتها.
  7. تسجيل وتدقيق نشاط وكلاء الذكاء الاصطناعي لتحديد أي حالات شاذة مبكرًا.
  8. دمج أدوات ذكاء اصطناعي إضافية للكشف عن الحالات الشاذة وإصدار تنبيهات أمنية تلقائية.
  9. تثقيف الموظفين حول التهديدات المرتبطة بالذكاء الاصطناعي وكيفية التعامل مع المخاطر المحتملة لسير العمل المستقل.
  10. دمج الدفاعات التقنية مع أفضل الممارسات التشغيلية واليقظة المستمرة لتقليل احتمالية التعرض للاختراقات.

أهمية الرقابة البشرية والممارسات التشغيلية

يشدد خبراء الأمن على أن دمج الرقابة البشرية مع ضوابط الوصول الصارمة والتقييم المستمر للثغرات، يمثل العامل الأهم لحماية المؤسسات من استغلال أدوات الذكاء الاصطناعي. كما يُنصح بتقييم المخاطر بشكل دوري وعدم الاعتماد الكلي على الأمان المدمج في أدوات الذكاء الاصطناعي، لضمان حماية البيانات الحساسة من أي تسريب محتمل.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1319

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *