تشير التقارير إلى أن الذكاء الاصطناعي أصبح يشكل تهديدًا متزايدًا للجماعات المتطرفة والتنظيمات الإرهابية، مما يفتح المجال أمام استخدامها كأداة لتسريع أنشطة العنف والتجنيد الرقمي. وبحسب تقرير نشرته صحيفة The Guardian البريطانية، فإن التطور السريع لهذه التكنولوجيا قد يجعلها في المستقبل أداة قوية لهذه الجماعات إذا لم يتم فرض ضوابط صارمة.
استخدام الذكاء الاصطناعي في التجنيد والتأثير
لم تعد الجماعات المتطرفة تقتصر على الاعتماد على العنصر البشري فقط في عمليات التجنيد، بل بدأت تستخدم الذكاء الاصطناعي بشكل مكثف في عدة مجالات، مثل:
- التجنيد الرقمي للشباب، مما يساعدهم على الوصول إلى فئات جديدة من الأشخاص عبر الإنترنت.
- التأثير على الرأي العام من خلال نشر محتويات مدعومة بتقنيات الذكاء الاصطناعي على منصات التواصل الاجتماعي.
- نشر الأخبار والمقاطع المزيفة، مما يعزز قدرتها على الانتشار والتأثير في المجتمع.
ثغرات تقنية تهدد الأمن
أحد أبرز المخاطر هو وجود ثغرات في أنظمة الذكاء الاصطناعي، التي تجعل من الممكن استغلال هذه الأنظمة بطرق غير قانونية. على سبيل المثال:
- بعض النماذج قد تمتنع عن الإجابة المباشرة على أسئلة تتعلق بصناعة الأسلحة والمتفجرات، ولكنها قد تستجيب لأسئلة صياغتها بطريقة غير مباشرة، مما يتيح للجماعات المتطرفة الحصول على معلومات حساسة.
تعارض مصالح الشركات الكبرى مع الأمان
الصحيفة أشارت إلى أن الشركات الكبرى في مجال التكنولوجيا تركز على تسريع تطوير النماذج التجارية وزيادة الأرباح، وهو ما يتعارض مع ضرورة تعزيز معايير السلامة وتقليل المخاطر. وتؤدي هذه الأولوية للأرباح إلى ضعف الاستثمار في أنظمة الحماية والاستخدام الآمن.
فجوة تنظيمية بين التطور التكنولوجي والرقابة
تسبب التطور السريع للذكاء الاصطناعي في حدوث فجوة تنظيمية كبيرة، حيث تتخلف الأطر التنظيمية عن مواكبة التطور التقني، مما يزيد من صعوبة ضبط تأثيراته السلبية. هذا الخلل أدى إلى حوادث عدة، من بينها:
- استغلال الذكاء الاصطناعي في نشر معلومات مضللة.
- تشجيع أعمال عنف مباشرة أو غير مباشرة.
التوصيات لمواجهة مخاطر الذكاء الاصطناعي
دعت الصحيفة إلى ضرورة وضع أطر تنظيمية وأخلاقية دولية أكثر صرامة للتعامل مع المخاطر المحتملة للذكاء الاصطناعي، وأكدت على أهمية التعاون بين الحكومات وشركات التكنولوجيا لضمان عدم استخدام هذه التقنية بشكل يهدد الأمن المجتمعي.




