Frontier AI Framework: معايير جديدة لتقييم المخاطر
أعلنت شركة ميتا عن إطلاق إطار عمل جديد يُعرف بـ”Frontier AI Framework”، يهدف إلى تحديد المعايير التي قد تدفع الشركة إلى التراجع عن إطلاق أنظمة ذكاء اصطناعي متقدمة إذا كانت تعتبر شديدة الخطورة. هذا الإطار يهدف إلى ضمان تطوير تقنيات الذكاء الاصطناعي بشكل آمن.
أنواع الأنظمة التي قد يتم حظرها
وفقًا لشركة ميتا، هناك نوعان من الأنظمة التي قد يتم منعها من الإطلاق:
- الأنظمة عالية الخطورة: التي قد تسهل تنفيذ الهجمات الإلكترونية أو الكيمياوية أو البيولوجية.
- الأنظمة ذات المخاطر الحرجة: التي قد تؤدي إلى نتائج كارثية لا يمكن التخفيف منها في حال استخدامها.
ويشير تقرير ميتا إلى أمثلة لهذه الأنظمة مثل الاختراق الشامل لأنظمة مؤمنة أو نشر أسلحة بيولوجية.
القرار يستند إلى المراجعات الداخلية وليس الاختبارات العلمية
من النقاط المثيرة للجدل في وثيقة ميتا أنها لا تعتمد على اختبار علمي موحد لتقييم المخاطر، بل تستند إلى مداخلات الباحثين والمراجعات الداخلية لاتخاذ القرار بشأن الأنظمة. في حال تم تصنيف النظام على أنه عالي الخطورة، ستعمل ميتا على تقييد الوصول إليه داخليًا حتى يتم تقليص خطره.
التوجه الجديد في مواجهة الانتقادات
تأتي هذه الخطوة في وقت تواجه فيه ميتا انتقادات بشأن نهجها المفتوح في تطوير الذكاء الاصطناعي، خاصة بعد أن جعلت نماذجها مثل Llama متاحة على نطاق واسع، ما أدى إلى استخدامها من قبل جهات غير مرغوب فيها.
ميتا تتنافس مع OpenAI وDeepSeek
القرار الجديد يضع ميتا في مواجهة مع شركات مثل OpenAI التي تتبنى نهجًا أكثر تحفظًا في إتاحة تقنياتها. كما تواجه الشركة منافسة من “ديب سيك” الصينية، التي تعرض أنظمة ذكاء اصطناعي قد تكون عرضة لاستخدامات ضارة.
التوازن بين الفوائد والمخاطر
تهدف ميتا من خلال هذا الإطار إلى تحقيق توازن بين فوائد الذكاء الاصطناعي والمخاطر المحتملة، مما يسمح بتطوير هذه التكنولوجيا مع الحد من التهديدات الأمنية المحتملة.




