كشفت دراسة حديثة أجراها باحثون بقيادة معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST) عن أسلوب متطور لاختراق أنظمة الذكاء الاصطناعي، يعتمد على التقاط إشارات كهرومغناطيسية غير مرئية تصدر أثناء تشغيل الأجهزة، دون الحاجة إلى اختراق تقليدي أو الوصول المباشر للنظام.
ما هي تقنية ModelSpy؟
تعتمد التقنية الجديدة، التي أطلق عليها اسم “ModelSpy”، على تحليل الانبعاثات الكهرومغناطيسية الناتجة عن وحدات معالجة الرسومات (GPU) أثناء تنفيذ عمليات الذكاء الاصطناعي.
ومن خلال هذه الإشارات الدقيقة، يمكن للباحثين إعادة بناء تفاصيل دقيقة عن تصميم النماذج، مثل ترتيب الطبقات والمعلمات المستخدمة، ما يجعلها أداة قوية لفهم البنية الداخلية لأنظمة الذكاء الاصطناعي.
اختراق غير تقليدي عبر “الاستماع” للإشارات
باستخدام هوائي صغير يمكن إخفاؤه بسهولة، تمكن الباحثون من التقاط إشارات ضعيفة تصدر من الأجهزة أثناء تشغيل التطبيقات الذكية.
ورغم ضعف هذه الإشارات، إلا أنها تحمل أنماطاً تقنية دقيقة مرتبطة بكيفية عمل النموذج، وهو ما أتاح إعادة بناء البنية الأساسية للنماذج بدقة وصلت إلى 97.6%، حتى من مسافة تصل إلى 6 أمتار، وفي بعض الحالات عبر الجدران.
تهديد جديد للأمن السيبراني والذكاء الاصطناعي
يمثل هذا الاكتشاف نقلة نوعية في مجال الأمن السيبراني، حيث لم يعد التهديد مقتصراً على الهجمات البرمجية أو الاختراقات الشبكية، بل امتد ليشمل “البصمة الفيزيائية” للأجهزة نفسها.
هذا النوع من الهجمات قد يسمح بسرقة تصميم النماذج الذكية دون الحاجة إلى أي اختراق تقليدي أو ترك أثر رقمي، ما يشكل خطراً كبيراً على الملكية الفكرية للشركات المطورة للذكاء الاصطناعي.
تداعيات خطيرة على الشركات والتقنيات
يشكل هذا التطور تحدياً حقيقياً أمام الشركات التي تعتمد على الذكاء الاصطناعي، حيث يمكن للمهاجمين استنساخ النماذج أو تحليلها بدقة دون الحاجة إلى الوصول المباشر إلى الأنظمة.
كما أن هذا النوع من الهجمات قد يعيد تشكيل استراتيجيات حماية البيانات والنماذج، خاصة في القطاعات الحساسة مثل الأمن، والتمويل، والتكنولوجيا.
حلول مقترحة لمواجهة الهجوم
اقترح الباحثون مجموعة من الحلول للحد من هذا التهديد، من بينها إضافة ضوضاء كهرومغناطيسية لتشويش الإشارات، أو تعديل أساليب تنفيذ العمليات الحسابية لتقليل إمكانية تحليل الأنماط.
لكن تطبيق هذه الحلول قد يتطلب تغييرات على مستوى العتاد (Hardware)، وليس فقط على مستوى البرمجيات، مما يزيد من تعقيد عملية تأمين أنظمة الذكاء الاصطناعي.
مستقبل الأمن في عصر الذكاء الاصطناعي
يشير هذا الاكتشاف إلى أن التهديدات المستقبلية قد تتجاوز أساليب الاختراق التقليدية، لتشمل مراقبة ما تكشفه الأجهزة بشكل غير مقصود.
ومع تطور تقنيات الذكاء الاصطناعي، يتوقع الخبراء أن يدخل الأمن السيبراني مرحلة جديدة تتطلب حلولاً مبتكرة لحماية الأنظمة من الهجمات غير المرئية.




