عادت شركة Anthropic إلى طاولة المفاوضات مع United States Department of Defense في محاولة أخيرة للتوصل إلى اتفاق ينظم استخدام الجيش الأميركي لنماذج الذكاء الاصطناعي الخاصة بها، وذلك بعد انهيار المحادثات بين الطرفين الأسبوع الماضي.
وبحسب تقرير نشرته صحيفة Financial Times، يجري الرئيس التنفيذي للشركة Dario Amodei محادثات مع مسؤول الأبحاث والهندسة في الوزارة Emil Michael، بهدف التوصل إلى صيغة نهائية تتيح للبنتاغون الوصول إلى نماذج الذكاء الاصطناعي التابعة للشركة، وعلى رأسها نموذج Claude AI.
توتر سياسي وقرار حكومي مفاجئ
انهارت المفاوضات بين الجانبين يوم الجمعة الماضي بعد تصاعد التوتر، إذ أصدر الرئيس الأميركي Donald Trump توجيهات للوكالات الفيدرالية بوقف استخدام أدوات الشركة.
كما أعلن وزير الدفاع عزمه تصنيف Anthropic كخطر محتمل على سلسلة التوريد المرتبطة بالأمن القومي، في خطوة اعتبرها مراقبون تصعيدًا كبيرًا في الخلاف.
وفي تطور لافت، انتقد Emil Michael الرئيس التنفيذي للشركة علناً عبر منصة X (Twitter)، واصفاً إياه بأنه “كاذب” ويعاني مما وصفه بـ”عقدة الألوهية”.
عقد دفاعي بمئات الملايين
وكانت الشركة قد حصلت سابقاً على عقد بقيمة 200 مليون دولار من وزارة الدفاع الأميركية، ما أتاح إدخال نموذج Claude AI إلى الشبكات الحكومية السرية، ليصبح أول نموذج ذكاء اصطناعي كبير يعمل داخل تلك الأنظمة الحساسة.
غير أن Anthropic طالبت لاحقاً بضمانات واضحة تمنع استخدام تقنيتها في المراقبة الداخلية واسعة النطاق أو في تطوير الأسلحة ذاتية التشغيل، وهو ما رفضه البنتاغون، مؤكداً حقه في استخدام التقنية لأي أغراض قانونية.
جدل حول تحليل البيانات الضخمة
ووفق مذكرة داخلية أرسلها Dario Amodei إلى موظفي الشركة، فقد وافقت وزارة الدفاع في مرحلة متقدمة من المفاوضات على شروط الشركة، لكنها طلبت حذف عبارة محددة تتعلق بـ”تحليل البيانات المجمعة بكميات كبيرة”.
وأشار أمودي إلى أن هذه العبارة كانت تمثل السيناريو الرئيسي الذي تخشى الشركة استخدام تقنياتها فيه.
دخول شركات الذكاء الاصطناعي على خط الأزمة
تأتي هذه الأزمة في وقت أعلنت فيه شركة OpenAI عن اتفاق جديد مع وزارة الدفاع الأميركية لاستخدام تقنياتها، وهو ما أثار نقاشاً واسعاً في أوساط التكنولوجيا.
كما شهد تطبيق Claude AI app ارتفاعاً ملحوظاً في عدد التنزيلات، بينما تحدثت تقارير عن زيادة عمليات حذف تطبيق ChatGPT خلال الفترة نفسها.
وفي محاولة لاحتواء الجدل، قال الرئيس التنفيذي لشركة OpenAI Sam Altman إن شركته ربما تسرعت في توقيع الاتفاق مع وزارة الدفاع، مشيراً إلى إدخال تعديلات على الضوابط المتعلقة باستخدام تقنياتها.
شركة تأسست على مبدأ السلامة
تأسست Anthropic عام 2021 على يد مجموعة من الباحثين السابقين في OpenAI، بعد خلافات داخلية حول توجهات تطوير الذكاء الاصطناعي، حيث قدمت نفسها منذ البداية كشركة تركز على مبدأ “السلامة أولاً”.
لكن مسؤولين حكوميين انتقدوا الشركة خلال الأشهر الماضية، معتبرين أنها تبالغ في التحذير من مخاطر الذكاء الاصطناعي.
وفي المقابل، أعربت مجموعة من شركات التكنولوجيا، من بينها Nvidia وGoogle وAnthropic، عن قلقها من احتمال تصنيف شركة أميركية كخطر على سلسلة التوريد، وذلك في رسالة مشتركة موجهة إلى وزير الدفاع الأميركي.




