الذكاء العام الاصطناعي يقترب.. ولكن كيف نضمن سلامته؟
يتطلع قادة التكنولوجيا والأعمال إلى تحقيق الذكاء العام الاصطناعي (AGI)، وهي مرحلة يُتوقع أن تُنتج آلة تتمتع بقدرات تضاهي الإنسان.
لكن مع هذا الطموح، تظهر الحاجة المُلِحّة لضمان ألا تعمل هذه الآلة ضد مصالح البشر.
ورقة بحثية تكشف عن حلول واعدة من “غوغل ديب مايند”
باحثو شركة “غوغل ديب مايند” أصدروا ورقة بحثية مؤلفة من 108 صفحات حول كيفية تطوير الذكاء العام الاصطناعي بأمان.
ويتوقع هؤلاء الباحثون أن الوصول إلى هذه التقنية قد يتحقق بحلول عام 2030، ما يستدعي استعدادًا استباقيًا لمخاطرها المحتملة.
تصنيف المخاطر.. أربعة أنواع تهدد مستقبل البشرية
حدد الفريق البحثي أربعة أنواع من المخاطر المحتملة المرتبطة بالذكاء العام الاصطناعي: سوء الاستخدام، الانحراف، الأخطاء، والمخاطر الهيكلية.
وقد تم التركيز بشكل خاص على أول نوعين، بينما تم تناول النوعين الآخرين بشكل موجز.
سوء الاستخدام.. قدرات خارقة في يد خاطئة
يشير الباحثون إلى أن سوء الاستخدام يُعدّ امتدادًا لمشاكل الذكاء الاصطناعي الحالية، ولكن بأثر أكبر.
فمثلًا، يمكن لمستخدم خبيث استغلال النظام لاكتشاف ثغرات أمنية أو تصميم أسلحة بيولوجية رقمية.
ولتفادي ذلك، تقترح “ديب مايند” اختبارات مكثفة وبروتوكولات سلامة صارمة لما بعد التدريب، بما في ذلك تطوير آلية “إلغاء التعلم” للحد من قدرات النظام الخطيرة.
الانحراف.. خطر تمرد الآلة على صانعيها
تُصوَّر مشكلة الانحراف كحالة يتمرّد فيها الذكاء الاصطناعي على القيود التي وضعها المطورون، كما في سيناريو فيلم “ترميناتور”.
وتقترح الورقة استخدام الإشراف المعزز، حيث تُراجع أنظمة الذكاء الاصطناعي بعضها البعض لتقليل احتمال الانحراف.
وفي حال ظهور مؤشرات تمرد، توصي “ديب مايند” بإجراء اختبارات ضغط شديدة وإبقاء الأنظمة في بيئة افتراضية خاضعة لإشراف بشري مباشر.
الأخطاء.. قرارات غير مقصودة قد تكون كارثية
يحدث الخطأ عندما لا يقصد الذكاء الاصطناعي أو مشغّله إحداث ضرر، لكنه يحدث فعلًا.
وترى “ديب مايند” أن هذه الأخطاء ستصبح أخطر مع تطور قدرات الذكاء العام الاصطناعي، خصوصًا إذا استخدمته الجيوش تحت ضغط تنافسي.
ويقترح الباحثون نشر هذه التقنية تدريجيًا، مع الحد من صلاحياتها وربط أوامرها بأنظمة حماية صارمة قبل التنفيذ.
المخاطر الهيكلية.. فقدان السيطرة أمام تعقيد الأنظمة
تصف “ديب مايند” المخاطر الهيكلية بأنها عواقب غير مقصودة لأنظمة متعددة الوكلاء تساهم في تعقيد الحياة البشرية.
من بين السيناريوهات المحتملة، إنتاج معلومات مضللة يصعب التحقق منها، أو سيطرة الذكاء الاصطناعي على السياسات الاقتصادية بشكل غير مباشر.
وتُعد هذه الفئة من المخاطر الأكثر صعوبة في التحكم، لأنها تعتمد على تطور بنية المجتمعات والمؤسسات مستقبلًا.