أعلن البنتاجون الأمريكي عن تصنيف شركة Anthropic، المطورة لروبوت الدردشة Claude، كمخاطر محتملة على سلسلة الإمداد، في خطوة تمنع المقاولين الحكوميين من استخدام تقنيات الشركة في المشاريع المتعلقة بالجيش الأمريكي.
وجاء القرار بعد نزاع طويل استمر عدة أشهر بين الشركة والبنتاغون حول الضوابط الأمنية المدمجة في Claude والتي تحد من استخدامه في سيناريوهات الحرب والمحاكاة العسكرية.
تفاصيل النزاع بين أنثروبيك والبنتاجون
وفقًا لبيان صادر عن البنتاجون، فإن سبب القرار هو ضمان قدرة الجيش على استخدام التكنولوجيا لجميع الأغراض القانونية دون قيود قد تضع الجنود في خطر. وقال البيان:
“لا يمكن للجيش السماح لأي مزود بإدخال نفسه في سلسلة القيادة من خلال تقييد الاستخدام القانوني لقدرة حرجة، مما يعرض مقاتلينا للخطر.”
من جهته، أكد ديمو أمودي، الرئيس التنفيذي لشركة Anthropic، أن الشركة ترى القرار غير قانوني وستلجأ للطعن فيه قضائيًا. وأضاف أن القيود التي اقترحتها الشركة تتعلق بمجالات استخدام محددة مثل المراقبة والأسلحة المستقلة، ولا تتعلق بالقرارات التشغيلية المباشرة على أرض المعركة.
موقف الشركة والخيارات المستقبلية
وأشار أمودي إلى أن استخدام تقنيات Anthropic في المشاريع غير العسكرية لا يزال متاحًا للشركات، وأنه كان هناك حوار مستمر مع البنتاغون حول إمكانية استخدام Claude مع الجيش دون إزالة ضوابط الأمان. ومع ذلك، نفى كبير مسؤولي التكنولوجيا في البنتاغون إميل مايكل وجود أي مفاوضات نشطة حاليًا مع الشركة.
القرار يأتي بعد أسبوع من اتهام الرئيس الأمريكي دونالد ترامب ووزير الدفاع بيت هيجسيت الشركة بأنها تشكل تهديدًا للأمن القومي الأمريكي، وسط تصاعد القلق حول استخدام الذكاء الاصطناعي في المجالات العسكرية بحلول عام 2026.




