1- حوكمة الذكاء الاصطناعي ليست دائمًا مسؤولة
– وجود أطر تحكم لا يعني بالضرورة تعزيز الذكاء الاصطناعي المسؤول وحماية حقوق الإنسان.
-
محدودية آليات حماية حقوق الإنسان
– قلة من الدول لديها آليات قوية لحماية حقوق الإنسان من تأثيرات الذكاء الاصطناعي.
-
التعاون الدولي مهم
– التعاون الدولي يعد أساسيًا في تعزيز الذكاء الاصطناعي المسؤول، وفق ما نشره موقع ictworks وعمل اليونسكو يشكل الآلية الأكثر أهمية في هذا المجال.
-
المساواة بين الجنسين لا تزال فجوة خطيرة
– معظم الدول لم تبذل جهودًا كافية لتعزيز المساواة بين الجنسين في سياق الذكاء الاصطناعي.
5- الإدماج والمساواة غير مُعالجة بشكل كافٍ
– عدد قليل من الحكومات تعتبر الشمول والمساواة في الذكاء الاصطناعي أولوية، مع دور كبير للجهات غير الحكومية في تحسين الأداء.
-
العمال لا يتمتعون بحماية كافية
-عدد قليل من الدول تضمن حقوق العمل وحماية العمال من تأثيرات الذكاء الاصطناعي في مكان العمل.
7 التنوع الثقافي واللغوي غير مُعزز
– قلة من الدول تعزز التنوع الثقافي واللغوي في جهودها لضمان الذكاء الاصطناعي المسؤول.
-
فجوات السلامة والأمن والموثوقية هائلة
– 28% فقط من الدول اتخذت خطوات لمعالجة سلامة ودقة وموثوقية أنظمة الذكاء الاصطناعي.
9 دور حاسم للجامعات والمجتمع المدني
– الجامعات ومنظمات المجتمع المدني تلعب دورًا رئيسيًا في تعزيز الذكاء الاصطناعي المسؤول.
10 الذكاء الاصطناعي المسؤول هدف بعيد المنال
– غالبية الدول بعيدة عن تبني الذكاء الاصطناعي المسؤول، مما يترك 6 مليارات شخص بدون حماية كافية لحقوقهم في سياق الذكاء الاصطناعي.