في محاولة لتنظيم الفوضى التكنولوجية المتسارعة، أصدر تحالف يضم المئات من الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خارطة طريق صارمة لتطوير الذكاء الاصطناعي الآمن، مع التركيز على حماية البشرية من المخاطر المحتملة للأنظمة المتقدمة.
قيود تشريعية على الذكاء الخارق
تدعو الوثيقة غير المسبوقة إلى:
حظر تطوير أنظمة الذكاء الخارق دون إجماع علمي دقيق.
إلزام الشركات الكبرى بدمج مفاتيح إيقاف حتمية وفعالة في جميع النماذج القوية.
منع تصميم خوارزميات قادرة على الاستنساخ الذاتي أو التطوير التلقائي المستقل.
فرض اختبارات سلامة إجبارية على المنتجات الذكية الموجهة للأطفال لتجنب التلاعب النفسي.
وأكدت استطلاعات الرأي الحديثة، وفقًا لموقع بيتس ديك الإخباري، أن الغالبية العظمى من الجمهور يرفض السباق غير المنظم نحو الذكاء الخارق.
الذكاء الخارق ومفاتيح الإيقاف
الذكاء الخارق يمثل مستوى متقدمًا جدًا من الذكاء الاصطناعي يتجاوز القدرات العقلية والتحليلية للبشر في جميع المجالات العلمية والمعرفية.
ولهذا، توصي الوثيقة بدمج آليات تقنية داخل الأنظمة تمكن المشغل البشري من:
تعطيل أي برنامج فوريًا عند ظهور سلوك خطر.
ضمان السيطرة المطلقة على الأنظمة القوية، لمنع أي تهديد وجودي أو مجتمعي.
دفع المجتمع الدولي نحو تنظيم صارم
يأتي هذا التحرك الجماعي في ظل غياب قوانين حكومية قادرة على مواكبة سرعة تطور تقنيات الذكاء الاصطناعي التوليدي.
ويعكس الموقف إدراكًا متزايدًا للمخاطر الوجودية، مما يدفع المجتمع الدولي نحو اعتماد أطر تنظيمية صارمة لضمان مستقبل آمن للبشرية، مع توجيه الابتكار نحو مسارات آمنة ومستدامة اقتصاديًا وأخلاقيًا.




