مخاوف متزايدة من قدرة الذكاء الاصطناعي على تطوير فيروسات وأمراض قاتلة
تصاعدت خلال السنوات الأخيرة التحذيرات المرتبطة بمخاطر تقنيات الذكاء الاصطناعي، ليس فقط على الوظائف والأمن السيبراني، بل أيضًا على الأمن البيولوجي العالمي، وسط مخاوف من إمكانية استخدام هذه التقنيات في تطوير فيروسات وسموم وأمراض جديدة قد يصعب على البشرية مواجهتها.
ووفق تقرير نشرته مجلة Nature العلمية، فإن تطور أدوات الذكاء الاصطناعي في مجالات الكيمياء الحيوية والبيولوجيا الجزيئية قد يفتح الباب أمام إنتاج مسببات مرضية غير معروفة، وهو ما يثير قلق الأوساط العلمية والأمنية حول العالم.
الذكاء الاصطناعي يتفوق في فهم البروتينات والمواد الحيوية
ساهمت التطورات الحديثة في الذكاء الاصطناعي في تحقيق قفزات علمية كبيرة بمجال الأبحاث الطبية، خاصة بعد نجاح تقنيات طورتها Google DeepMind في التنبؤ بتركيبات البروتينات الحيوية المعقدة، وهو الإنجاز الذي عزز مكانة الذكاء الاصطناعي في البحث العلمي والطبي.
لكن في المقابل، يرى خبراء أن هذه القدرات نفسها قد تُستخدم بصورة خطيرة لتطوير مواد سامة أو فيروسات معدلة جينيًا، خصوصًا مع تزايد قدرة الأنظمة الذكية على تحليل البيانات البيولوجية المعقدة وإنتاج نماذج جديدة بسرعة كبيرة.
أداة صينية لتصميم السموم تثير قلق العلماء
أشار تقرير “نيتشر” إلى حالة أثارت جدلًا واسعًا عام 2024، بعدما أعلن فريق علمي صيني تطوير أداة ذكاء اصطناعي قادرة على تصميم “السموم المخروطية”، وهي مواد شديدة السمية تنتجها بعض الرخويات البحرية، ويُعرف بعضها بقدرته على مهاجمة الجهاز العصبي دون وجود ترياق فعال لها.
وأثارت هذه الخطوة مخاوف كبيرة داخل المؤسسات العلمية والأمنية، لدرجة أن مسؤولًا أمريكيًا وصف التقنية بأنها تهديد مباشر للأمن البيولوجي العالمي.
ورغم أن العلماء يؤكدون أن تصنيع هذه السموم عمليًا يتطلب مختبرات متقدمة وإمكانات ضخمة، فإن مجرد قدرة الذكاء الاصطناعي على تصميمها نظريًا يعكس حجم التطور والخطر المحتمل.
أسوأ السيناريوهات المحتملة
يحذر خبراء الأمن البيولوجي من سيناريوهين رئيسيين يتعلقان بالذكاء الاصطناعي والأسلحة البيولوجية.
السيناريو الأول يتمثل في إمكانية استخدام أفراد أو مجموعات صغيرة لأدوات الذكاء الاصطناعي لتطوير مواد بيولوجية خطيرة داخل مختبرات منزلية بسيطة.
أما السيناريو الثاني، والأكثر خطورة، فيتعلق بالدول أو الجهات التي تمتلك إمكانات مالية وتقنية ضخمة، وقدرتها على استخدام أنظمة ذكاء اصطناعي متقدمة لتطوير فيروسات أو أمراض معدلة أكثر فتكًا وانتشارًا.
الذكاء الاصطناعي شارك في تصنيع فيروس لأول مرة
في تطور أثار اهتمامًا واسعًا، كشفت مجلة “نيتشر” خلال عام 2025 عن نجاح مجموعة من العلماء في بناء فيروس باستخدام الذكاء الاصطناعي، حيث ساهمت الأنظمة الذكية في تصميم التركيبة الجينية للفيروس.
ورغم أن أغلب هذه التجارب ما تزال في الإطار البحثي، فإن بعض الفيروسات المصممة نجحت معمليًا في إصابة بكتيريا “إي كولاي” بنسبة محدودة بلغت نحو 5%، وهو ما اعتبره بعض الخبراء مؤشرًا مقلقًا على التطور السريع لهذه التقنيات.
مطالب بفرض قيود على الأبحاث البيولوجية المدعومة بالذكاء الاصطناعي
دفعت هذه المخاوف أكثر من 100 عالم من جامعات ومراكز بحثية عالمية، بينها Johns Hopkins University وUniversity of Oxford وStanford University، للمطالبة بوضع قيود صارمة على الأبحاث البيولوجية المدعومة بالذكاء الاصطناعي.
كما دعا بعض الباحثين إلى تقييد وصول نماذج الذكاء الاصطناعي إلى قواعد البيانات الخاصة بالأمراض المعدية والفيروسات الخطيرة، بهدف منع استخدامها في تطوير أسلحة بيولوجية مستقبلية.
سباق بين الذكاء الاصطناعي الهجومي والدفاعي
في المقابل، يرى فريق آخر من العلماء أن الحل لا يكمن فقط في تقييد البيانات، بل في تطوير أنظمة ذكاء اصطناعي دفاعية قادرة على اكتشاف التهديدات البيولوجية مبكرًا وتصميم وسائل حماية وعلاجات مضادة قبل انتشارها.
ومع استمرار سباق شركات التكنولوجيا لتطوير نماذج ذكاء اصطناعي أكثر قوة، يبقى الجدل قائمًا حول كيفية تحقيق التوازن بين الاستفادة العلمية من هذه التقنيات ومنع تحولها إلى تهديد عالمي.




