أعاد تصاعد المواجهة بين الولايات المتحدة وإسرائيل من جهة، وإيران من جهة أخرى، تسليط الضوء على الدور المتنامي للذكاء الاصطناعي في العمليات العسكرية الحديثة، في وقت تتزايد فيه المخاوف بشأن الضوابط الأخلاقية والقانونية المرتبطة باستخدام هذه التكنولوجيا في النزاعات المسلحة.
وقبل يوم واحد من بدء الهجوم الأميركي الإسرائيلي على إيران في 28 فبراير، استبعدت الحكومة الأميركية أحد أبرز موردي تقنيات الذكاء الاصطناعي لديها، في خطوة تعكس حجم الجدل الدائر حول استخدام هذه الأنظمة في المجال العسكري. وتطرح هذه التطورات تساؤلات واسعة حول مستقبل أنظمة الأسلحة المستقلة، وآليات تنظيم استخدام الذكاء الاصطناعي في الحروب.
ويرى خبراء أن التطور السريع في التكنولوجيا العسكرية يتجاوز بكثير سرعة النقاشات الدولية حول وضع قواعد منظمة لهذا الاستخدام. وفي هذا السياق، أشار الباحثون إلى أن غياب إطار قانوني واضح قد يفتح الباب أمام انتشار واسع للذكاء الاصطناعي في الصراعات المستقبلية.
الذكاء الاصطناعي في ميدان المعركة
تعتمد القوات المسلحة الأميركية بشكل متزايد على تقنيات الذكاء الاصطناعي في مجالات متعددة، من بينها الدعم اللوجستي وتحليل المعلومات الاستخباراتية، إضافة إلى دعم عمليات اتخاذ القرار في ساحات القتال.
ومن أبرز هذه الأنظمة مشروع Maven Smart، الذي يستخدم تقنيات معالجة الصور وتحليل البيانات لتحديد الأهداف العسكرية وترتيب أولوياتها، ما يساهم في تسريع العمليات الهجومية. وتشير تقارير إعلامية إلى أن هذا النظام استُخدم في نزاعات سابقة، كما استُخدم خلال الهجمات الأخيرة على إيران، رغم أن تفاصيل استخدامه لا تزال غير معلنة بالكامل.
ويعتقد بعض الباحثين أن دقة تقنيات الذكاء الاصطناعي قد تسهم نظريًا في تقليل الخسائر بين المدنيين. غير أن التجارب الميدانية في النزاعات الأخيرة، مثل الحرب في أوكرانيا والعمليات العسكرية في قطاع غزة، لم تقدم أدلة واضحة على تحقيق هذا الهدف، إذ استمرت معدلات سقوط الضحايا المدنيين في الارتفاع.
الأسلحة الذاتية التشغيل.. جدل أخلاقي متصاعد
تعد فكرة استخدام أسلحة تعمل بالذكاء الاصطناعي بشكل مستقل دون إشراف بشري من أكثر القضايا إثارة للجدل في المجال العسكري. فبعض الجيوش ترى في الطائرات المسيرة ذاتية التشغيل وسيلة فعالة لتعقب مقاتلي العدو واستهدافهم بدقة.
لكن القوانين الإنسانية الدولية تشترط أن تكون الأنظمة العسكرية قادرة على التمييز بين الأهداف العسكرية والمدنية، وهو ما يشكك الخبراء في قدرة الأنظمة المستقلة بالكامل على تحقيقه في الوقت الحالي.
ويؤكد عدد من الباحثين أن الأسلحة التي تعمل دون إشراف بشري مباشر ما زالت غير موثوقة تقنيًا، كما أنها قد لا تتوافق مع القواعد القانونية الدولية المنظمة للنزاعات المسلحة.
خلاف بين شركات التكنولوجيا والبنتاغون
برزت هذه المخاوف بوضوح في الخلاف الذي نشب بين وزارة الدفاع الأميركية وشركة Anthropic المتخصصة في تطوير تقنيات الذكاء الاصطناعي.
فمنذ عام 2024، كان نظام الذكاء الاصطناعي “Claude” الذي تطوره الشركة يدعم مشروع Maven العسكري، ضمن عقد بلغت قيمته نحو 200 مليون دولار مع وزارة الدفاع الأميركية. إلا أن الشركة رفضت تعديل سياساتها بما يسمح باستخدام تقنياتها في تطبيقات مثل المراقبة الجماعية أو توجيه الأسلحة ذاتية التشغيل بالكامل.
وفي أعقاب هذا الخلاف، أصدرت إدارة الرئيس دونالد ترامب توجيهًا بوقف استخدام تقنيات الشركة في المشاريع الحكومية، قبل أن تتجه الحكومة الأميركية إلى توقيع اتفاق جديد مع شركة OpenAI لتوفير تقنيات بديلة.
ومع ذلك، تؤكد الشركات التكنولوجية أن عقودها مع الحكومة تتضمن قيودًا واضحة تمنع استخدام تقنياتها في المراقبة الواسعة أو في تطوير أسلحة قادرة على القتل دون تدخل بشري.
دعوات لتنظيم دولي
في موازاة هذه التطورات، تتزايد الدعوات الدولية لوضع إطار قانوني ينظم استخدام الذكاء الاصطناعي في الحروب. وقد ناقش خبراء دوليون مؤخرًا، خلال اجتماعات في جنيف، تقارير تتعلق بسبل تنظيم شراء وتطوير تقنيات الذكاء الاصطناعي في المجال العسكري.
ويرى باحثون أن مرحلة التعاقد بين الحكومات وشركات التكنولوجيا تمثل نقطة محورية لتحديد معايير الاستخدام المسؤول لهذه التقنيات، بما يضمن الحد من مخاطرها الإنسانية والأمنية.
ومع استمرار سباق التسلح التكنولوجي بين القوى الكبرى، يعتقد خبراء أن غياب توافق دولي واضح قد يؤدي إلى انتشار أوسع للذكاء الاصطناعي في الحروب المقبلة، ما قد يغير بشكل جذري طبيعة الصراعات العسكرية في العالم.




