تقرير صادم: عمالقة الذكاء الاصطناعي يتخلفون عن معايير الأمان والسلامة العالمية

كشف تقرير جديد صادر عن معهد مستقبل الحياة عن وجود فجوات خطيرة في ممارسات الأمان والسلامة لدى شركات الذكاء الاصطناعي الرائدة عالمياً. ويؤكد التقرير أن شركات مثل OpenAI، Meta، Anthropic، و xAI لا تزال بعيدة عن تحقيق المعايير الدولية الناشئة للحوكمة والشفافية.

الابتكار يتجاوز الأمان في سباق الذكاء الاصطناعي

يشير التقرير إلى أن سباق الشركات نحو بناء أنظمة فائقة الذكاء يجري بوتيرة أسرع بكثير من قدرتها على التحكم في سلوك هذه النماذج وضمان سلامتها.

  • التركيز على الهيمنة: يؤكد الخبراء أن معظم الشركات تضع الابتكار والهيمنة في السوق فوق اعتبارات السلامة، مما يعرض المجتمعات لمخاطر تبدأ من نشر المعلومات المضللة وتصل إلى سلوكيات أكثر خطورة, مخاطر الذكاء الاصطناعي.

  • غياب الشفافية: لم يحقق أي من مختبرات الذكاء الاصطناعي الكبرى الحد الأدنى من معايير الشفافية المطلوبة، حيث تقدم القليل من المعلومات حول اختبار التحيزات، أو التعامل مع حوادث السلامة، أو خطط السيطرة على سلوك النماذج المتقدمة مستقبلاً.

 مختبرات أصغر تتفوق في التوثيق

في المقابل، حصلت بعض المختبرات الأصغر في أوروبا وآسيا على إشادة من التقرير لتوثيقها الواضح لإجراءات السلامة، رغم أنها لا تزال بعيدة عن المستويات التي تطمح لها الجهات التنظيمية الدولية.

ردود فعل متباينة بين عمالقة التكنولوجيا

أثار التقرير ردود فعل مختلفة داخل القطاع:

  • Google DeepMind: أكدت التزامها بتطوير آليات السلامة بالتوازي مع نماذجها.

  • xAI: جاء رد الشركة هجومياً، حيث وصفت التقرير بأنه “أكاذيب إعلامية قديمة”.

خطر يهدد المجتمع مع تزايد الاعتماد على الذكاء الاصطناعي

يخلص التقرير إلى أن سباق الذكاء الاصطناعي يتسارع بوتيرة تتجاوز قدرة أنظمة السلامة على اللحاق به. ويحذر الخبراء من أنه ما لم تُعِد الشركات الكبرى النظر في استراتيجياتها وتنفذ إصلاحات جذرية في الحوكمة، فقد يواجه العالم تحديات خطيرة مع ازدياد اعتماد المجتمع على الأنظمة الذكية.

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 883

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *