الاتحاد الأوروبي يتيح حظر أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة

بدء تنفيذ قانون الذكاء الاصطناعي
بدأ الاتحاد الأوروبي رسميًا تنفيذ قراره بحظر بعض أنظمة الذكاء الاصطناعي التي تعتبر ذات “خطر غير مقبول” أو قد تسبب ضررًا، حيث دخل القانون حيز التنفيذ منذ الثاني من فبراير. ويعد هذا الموعد الأول للامتثال لقانون الذكاء الاصطناعي الجديد، الذي أقره البرلمان الأوروبي في مارس الماضي بعد سنوات من التطوير.

أنظمة الذكاء الاصطناعي المحظورة
يشمل القانون حظر استخدام أنظمة الذكاء الاصطناعي التي تتعامل مع الأفراد بطرق قد تؤثر سلبًا على حقوقهم وحرياتهم، ومن بينها:

  • أنظمة التصنيف الاجتماعي التي تبني ملفات تعريف المخاطر بناءً على سلوك الأفراد.
  • الأنظمة التي تؤثر على قرارات الأشخاص دون وعي أو بطرق مخادعة.
  • تقنيات تستغل نقاط الضعف مثل العمر أو الإعاقة أو الوضع الاجتماعي.
  • أنظمة تتنبأ بارتكاب الجرائم بناءً على المظهر.
  • الذكاء الاصطناعي الذي يستنتج الخصائص الشخصية مثل التوجهات الجنسية.
  • أنظمة تجمع البيانات الحيوية “في الوقت الفعلي” في الأماكن العامة لأغراض إنفاذ القانون.
  • تقنيات تستنتج مشاعر الأفراد في أماكن العمل أو المؤسسات التعليمية.
  • أنظمة توسع قواعد بيانات التعرف على الوجه من خلال جمع الصور من الإنترنت أو كاميرات المراقبة.

عقوبات صارمة على المخالفين
ستتعرض الشركات التي تستخدم أيًا من هذه الأنظمة داخل الاتحاد الأوروبي لغرامات تصل إلى 35 مليون يورو أو 7% من إيراداتها السنوية، أيهما أكبر، حتى لو كانت مقراتها الرئيسية خارج أوروبا.

ورغم بدء تنفيذ القانون، فإن الغرامات لن تُطبق فورًا، حيث أشار روب سومروي، رئيس قسم التكنولوجيا في شركة “سلوتر آند ماي”، إلى أن الموعد النهائي الكبير التالي للامتثال سيكون في أغسطس المقبل.

التزامات الشركات التقنية الكبرى
في سبتمبر الماضي، وقّعت أكثر من 100 شركة، منها “أمازون”، و”غوغل”، و”OpenAI”، على ميثاق الذكاء الاصطناعي للاتحاد الأوروبي، وهو تعهد طوعي للامتثال لمعايير القانون قبل دخوله حيز التنفيذ.

في المقابل، رفضت شركات مثل “ميتا”، و”أبل”، و”ميسترال” التوقيع على الميثاق، إلا أن ذلك لا يعني عدم التزامها ببنود القانون، حيث يتعين على جميع الشركات الامتثال للحظر المفروض على الأنظمة المحفوفة بالمخاطر.

استثناءات لاستخدام الذكاء الاصطناعي
يتيح القانون بعض الاستثناءات لاستخدام أنظمة الذكاء الاصطناعي في حالات معينة، مثل:

  • سلطات إنفاذ القانون التي تحتاج إلى جمع بيانات حيوية في الأماكن العامة للبحث عن ضحايا الاختطاف أو منع تهديدات وشيكة.
  • أنظمة استنتاج المشاعر في أماكن العمل أو المدارس إذا كان هناك مبرر طبي أو يتعلق بالسلامة، مثل التطبيقات العلاجية.

وتتطلب هذه الاستثناءات الحصول على إذن مسبق من الجهات التنظيمية المختصة، لضمان عدم إساءة استخدامها.

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 653

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *