جوجل تحذف تعهدها بعدم استخدام الذكاء الاصطناعي في الأسلحة

تخلّت شركة جوجل عن أحد أبرز تعهداتها الأخلاقية، بعدما حذفت من مبادئها الخاصة بالذكاء الاصطناعي التزامها بعدم استخدام هذه التقنية في تطوير الأسلحة أو أنظمة المراقبة، وهو تعهد قطعته في عام 2018. جاء هذا التغيير ضمن تحديث جديد لمبادئ “الذكاء الاصطناعي المسؤول”، حيث برر ديميس هاسابيس، رئيس قسم الذكاء الاصطناعي في جوجل، هذه الخطوة باعتبارها تطوراً طبيعياً يواكب العصر، وليس تنازلاً أخلاقياً.

جوجل تحذف تعهدها بعدم استخدام الذكاء الاصطناعي في الأسلحة

كانت جوجل قد تبنّت سابقًا شعار “لا تكن شريرًا”، قبل أن تستبدله عام 2018 بشعار “افعل الصواب”، لكنها اليوم تتراجع عن تعهدها بعدم تطوير أنظمة ذكاء اصطناعي عسكرية، مما يفتح الباب أمام تساؤلات خطيرة حول مستقبل التكنولوجيا في الحروب.

الذكاء الاصطناعي في ساحة المعركة.. مخاطر غير محسوبة

يُثير إدخال الذكاء الاصطناعي في المجال العسكري مخاوف جدية، حيث يمكن لأنظمة التشغيل الآلية اتخاذ قرارات بسرعة تفوق قدرة البشر على التدخل، مما قد يؤدي إلى تصعيد النزاعات بشكل غير مسبوق. فالحروب المؤتمتة قد تبدو “أقل تكلفة”، لكنها تحمل في طياتها خطراً كبيرًا يتمثل في فقدان السيطرة البشرية على القرارات القتالية.

اتخاذ القرار آلياً.. تهديد جديد للحروب

تكمن المشكلة الحقيقية في السماح للذكاء الاصطناعي باتخاذ قرارات مصيرية تتعلق بقتل البشر، فبينما ساعدت التقنيات العسكرية في تحسين كفاءة الجيوش سابقًا، يغيّر الذكاء الاصطناعي اليوم طبيعة من يقرر مصير الأفراد في ساحة المعركة.

هل رضخت جوجل لضغوط العقود العسكرية؟

لم يكن هذا التحول مفاجئًا، إذ كانت جوجل تتعرض لضغوط متزايدة من الحكومة الأمريكية لإبرام عقود دفاعية، خاصة بعد زيارة نائب وزير الدفاع الأمريكي السابق باتريك شاناهان لمقر أعمالها السحابية في عام 2017.

سابقًا، واجهت جوجل انتقادات داخلية بسبب مشروع “مافين”، الذي كان يهدف إلى تطوير أنظمة ذكاء اصطناعي لتحليل لقطات الطائرات بدون طيار لصالح وزارة الدفاع الأمريكية، مما دفع الآلاف من موظفيها للتوقيع على عريضة ترفض مشاركة الشركة في تطوير تقنيات حربية. ولكن اليوم، يبدو أن الشركة باتت أكثر انفتاحًا على العمل مع المؤسسات العسكرية.

شركات التكنولوجيا والدفاع.. شراكات مثيرة للجدل

لم تقتصر هذه التوجهات على جوجل فحسب، إذ دخلت شركات أخرى مثل “أوبن إيه آي” و”أنثروبيك” في شراكات مع مقاولين دفاعيين، مما يثير القلق بشأن دور الشركات التكنولوجية الكبرى في تسليح الذكاء الاصطناعي.

هل يمكن فرض ضوابط على الذكاء الاصطناعي العسكري؟

وسط هذه التطورات، يزداد الضغط على الحكومات لوضع قوانين صارمة تحد من استخدام الذكاء الاصطناعي في المجال العسكري، مثل فرض إشراف بشري على جميع أنظمة الذكاء الاصطناعي القتالية، وحظر تطوير الأسلحة المستقلة التي يمكنها تحديد الأهداف دون تدخل بشري.

يُعد اقتراح معهد مستقبل الحياة نموذجًا لحلول ممكنة، حيث يدعو إلى تنظيم الذكاء الاصطناعي العسكري على غرار الرقابة المفروضة على المرافق النووية، مع فرض عقوبات على الشركات التي تخرق هذه المعايير.

الخلاصة

تراجع جوجل عن تعهدها بعدم تطوير الذكاء الاصطناعي العسكري يسلط الضوء على التحديات الأخلاقية التي تواجهها الشركات التكنولوجية الكبرى. ومع تسارع سباق التسلح بالذكاء الاصطناعي، فإن الحاجة إلى تنظيم صارم أصبحت ضرورة ملحّة قبل أن تصبح القرارات الحربية في أيدي الخوارزميات.

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 884

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *