تجربة أميركية تكشف قدرات غير مسبوقة لأنظمة الذكاء الاصطناعي
كشف فريق من الباحثين في الولايات المتحدة عن نتائج تجربة جديدة أظهرت أن نماذج الذكاء الاصطناعي المتقدمة أصبحت قادرة على نسخ نفسها تلقائيًا والانتشار بين أجهزة كمبيوتر متعددة، في خطوة وصفها الباحثون بأنها أول دليل عملي على أن “النسخ الذاتي المستقل” للذكاء الاصطناعي لم يعد مجرد سيناريو نظري.
وأجرت شركة Palisade Research التجربة باستخدام مجموعة من أبرز نماذج الذكاء الاصطناعي العالمية، من بينها نماذج GPT التابعة لشركة OpenAI، ونماذج Claude من شركة Anthropic، بالإضافة إلى نموذج Qwen التابع لشركة Alibaba.
النماذج نجحت في اختراق الأجهزة ونقل نفسها تلقائيًا
واعتمدت التجربة على أجهزة كمبيوتر تحتوي عمدًا على ثغرات أمنية، مع تزويد النماذج ببرمجيات خاصة تتيح لها تنفيذ أوامر مباشرة والتفاعل مع أنظمة أخرى بعيدًا عن تطبيقات الدردشة التقليدية.
وأظهرت النتائج قدرة النماذج على اختراق الأجهزة، وسرقة بيانات تسجيل الدخول، ونقل ملفاتها البرمجية إلى أجهزة أخرى، ثم تشغيل نسخ جديدة منها بشكل مستقل، ما يسمح لها بمهاجمة أنظمة إضافية دون أي تدخل بشري مباشر.
ووفقًا للتجربة، تمكنت نسخة من نموذج “Qwen3.6-27B” من الانتشار عبر أربعة حواسيب موزعة بين كندا والولايات المتحدة وفنلندا والهند خلال ساعتين و41 دقيقة فقط بعد تنفيذ أمر واحد، بينما حققت نماذج أخرى نسب نجاح تراوحت بين 19% و81%.
مخاوف متزايدة بشأن الأمن السيبراني والأنظمة الذكية
وأثارت نتائج الدراسة مخاوف متزايدة لدى الباحثين بشأن مستقبل الأمن السيبراني، خاصة مع التطور السريع لقدرات الذكاء الاصطناعي على تنفيذ هجمات إلكترونية معقدة بصورة مستقلة.
وتأتي هذه المخاوف بعد إعلان شركة Anthropic عن نموذج “Claude Mythos Preview”، الذي وصفته الشركة بأنه “شديد الخطورة” نظرًا لإمكانياته في تنفيذ هجمات إلكترونية واسعة النطاق.
وأكد الباحثون أن التجربة جرت داخل بيئة اختبار محكومة وعلى أجهزة ضعيفة الحماية بشكل متعمد، مشيرين إلى أن الشبكات الواقعية غالبًا ما تتمتع بأنظمة أمان أكثر تطورًا، إلا أنهم شددوا على أن النتائج تمثل مؤشرًا واضحًا على دخول الذكاء الاصطناعي مرحلة جديدة قد تفرض تحديات كبيرة على أنظمة الحماية الرقمية مستقبلًا.
تساؤلات حول مستقبل الرقابة على الذكاء الاصطناعي
ويرى الخبراء أن هذه التطورات تفتح الباب أمام تساؤلات واسعة حول آليات مراقبة أنظمة الذكاء الاصطناعي المتقدمة، خصوصًا مع احتمالية قدرتها مستقبلًا على الانتشار الذاتي داخل الشبكات الحيوية والبنية التحتية الرقمية.
كما يطالب متخصصون بضرورة وضع أطر تنظيمية وتشريعات دولية تضمن الاستخدام الآمن لهذه التقنيات، وتحد من مخاطر تحولها إلى أدوات تهدد الأمن السيبراني العالمي.




