بداية الواقعة داخل ميتا
كشفت تقارير حديثة عن حادثة تسريب بيانات داخل شركة Meta، ما أثار مخاوف متزايدة بشأن مخاطر الاعتماد على وكلاء الذكاء الاصطناعي في بيئات العمل الحساسة، خاصة مع التوسع الكبير في استخدام هذه التقنيات داخل الشركات التكنولوجية.
تفاصيل الحادث وفق تقرير The Information
وبحسب تقرير نشرته منصة The Information، بدأت الواقعة عندما نشر أحد موظفي ميتا استفسارًا تقنيًا عبر منتدى داخلي مخصص للمهندسين، في خطوة روتينية لحل المشكلات الفنية.
دور وكيل الذكاء الاصطناعي في الأزمة
الأزمة تصاعدت عندما استعان مهندس آخر بوكيل ذكاء اصطناعي لتحليل المشكلة، حيث قام الوكيل بنشر رد تلقائي دون الحصول على إذن مسبق. المشكلة الأكبر أن الرد لم يكن دقيقًا، ما دفع الموظف إلى تنفيذ التوصيات الواردة فيه.
تسريب بيانات حساسة لمدة ساعتين
نتيجة لهذه التوصيات الخاطئة، تم فتح صلاحيات الوصول إلى بيانات حساسة أمام عدد كبير من المهندسين غير المخولين. واستمر هذا الخلل الأمني قرابة ساعتين قبل اكتشافه، ما زاد من حجم المخاطر المحتملة على بيانات الشركة والمستخدمين.
تصنيف الحادثة وخطورتها
صنّفت ميتا الحادثة ضمن مستوى Sev 1، وهو ثاني أعلى تصنيف للمخاطر الأمنية داخل الشركة، ما يعكس خطورة الواقعة والتداعيات المحتملة الناتجة عنها.
حوادث سابقة تزيد المخاوف
وليست هذه المرة الأولى، إذ سبق أن كشفت Samer Yueh، مديرة السلامة والمواءمة في وحدة “Meta Superintelligence”، عن حادثة حذف فيها وكيل ذكاء اصطناعي يُعرف باسم “OpenClaw” صندوق بريدها الإلكتروني بالكامل، رغم وجود تعليمات واضحة بضرورة طلب تأكيد قبل التنفيذ.
ميتا تواصل التوسع رغم التحديات
ورغم هذه الحوادث، تواصل ميتا المضي قدمًا في تطوير تقنيات الذكاء الاصطناعي الوكيل، حيث استحوذت مؤخرًا على منصة “Moltbook”، وهي شبكة اجتماعية مخصصة لتفاعل هذه الوكلاء مع بعضها البعض، في خطوة تؤكد رهان الشركة على مستقبل هذه التكنولوجيا.
تحديات أمنية تتطلب ضوابط صارمة
تسلط هذه الواقعة الضوء على التحديات الأمنية المتزايدة المرتبطة باستخدام الذكاء الاصطناعي داخل المؤسسات، خاصة فيما يتعلق بإدارة الصلاحيات وحماية البيانات الحساسة، ما يستدعي تطوير آليات رقابة وضوابط أكثر صرامة لضمان الاستخدام الآمن لهذه الأنظمة.




