قانون الاتحاد الأوروبي للذكاء الاصطناعي: ريادة عالمية في تنظيم التكنولوجيا

يُعد قانون الذكاء الاصطناعي للاتحاد الأوروبي (EU AI Act) أول إطار تنظيمي شامل في العالم يهدف إلى توحيد القواعد القانونية لتطوير وتسويق واستخدام أنظمة الذكاء الاصطناعي داخل دول الاتحاد. يتميز هذا القانون باتباعه نهج قائم على المخاطر، حيث تُفرض الالتزامات التنظيمية على مقدمي ومستخدمي أنظمة الذكاء الاصطناعي بناءً على مستوى الضرر المحتمل الذي يمكن أن تُسببه هذه الأنظمة على حقوق الأفراد وسلامتهم.

التصنيف القائم على المخاطر: الأساس التشريعي للقانون

يُصنف القانون أنظمة الذكاء الاصطناعي إلى أربع مستويات للمخاطر، لكل منها متطلبات والتزامات مختلفة:

1. أنظمة المخاطر غير المقبولة (المحظورة)

تُحظر هذه الأنظمة بالكامل لأنها تُشكّل تهديدًا واضحًا للحقوق الأساسية والقيم الأوروبية. وتشمل الأمثلة الرئيسية:

التسجيل الاجتماعي (Social Scoring): تقييم السلوك الاجتماعي للأفراد من قبل جهات حكومية أو خاصة.

التلاعب الضار: استخدام تقنيات التلاعب اللاواعي (Subliminal Manipulation) أو استغلال نقاط ضعف الأشخاص (مثل الأطفال أو ذوي الإعاقة) بطريقة تُسبب ضرراً جسيماً.

التعرف البيومتري عن بُعد في الوقت الفعلي: استخدامه في الأماكن العامة لإنفاذ القانون، باستثناء حالات محددة وضيقة تتعلق بالأمن العام.

التجميع غير الموجّه لصور الوجوه: جمع صور الوجوه من الإنترنت أو كاميرات المراقبة لتوسيع قواعد بيانات التعرف على الوجوه.

ملاحظة زمنية: بدأ تطبيق حظر ممارسات الذكاء الاصطناعي غير المقبولة اعتباراً من 2 فبراير 2025.

2. أنظمة المخاطر العالية

تُعد هذه الأنظمة مسموحًا بها ولكنها تخضع لرقابة صارمة والتزامات تنظيمية مكثفة لأنها قد تؤثر سلباً على سلامة الأفراد وحقوقهم الأساسية. تشمل مجالات التطبيق:

البنية التحتية الحيوية: مثل إدارة شبكات المياه والكهرباء والغاز.

التعليم والتوظيف: مثل أنظمة فحص السير الذاتية وتصنيف المتقدمين للوظائف.

الرعاية الصحية والأجهزة الطبية.

إدارة الهجرة والحدود والقضاء وتقييم الجدارة الائتمانية.

الالتزامات الرئيسية: يجب أن تلتزم أنظمة المخاطر العالية بمتطلبات صارمة تشمل: إدارة المخاطر، جودة البيانات، الشفافية، إمكانية الرقابة البشرية، الدقة، الأمن السيبراني، وتقييم المطابقة قبل طرحها في السوق.

ملاحظة زمنية: تدخل قواعد أنظمة الذكاء الاصطناعي عالية المخاطر حيز التنفيذ في 2 أغسطس 2026.

3. نماذج الذكاء الاصطناعي للأغراض العامة (GPAI)

وهي النماذج الأساسية التي يمكن تكييفها واستخدامها لأغراض متعددة، مثل “غروك” (Grok) ونماذج اللغات الكبيرة (LLMs). يُلزم القانون مزودي هذه النماذج بقواعد تتعلق بالشفافية والتوثيق والامتثال لقانون حقوق الطبع والنشر.

المخاطر النظامية: بالنسبة للنماذج التي تُشكّل “مخاطر نظامية” (بسبب قدراتها أو نطاق استخدامها)، يجب على المزودين إجراء تقييمات وتخفيف لهذه المخاطر.

ملاحظة زمنية: بدأ تطبيق قواعد الذكاء الاصطناعي عام الأغراض على النماذج الجديدة اعتباراً من 2 أغسطس 2025.

4. أنظمة المخاطر المنخفضة أو الصفرية

تُمثّل الغالبية العظمى من أنظمة الذكاء الاصطناعي (مثل مرشحات البريد العشوائي وألعاب الفيديو المدعومة بالذكاء الاصطناعي). هذه الأنظمة لا تُفرض عليها التزامات تنظيمية إلزامية بموجب القانون، ولكن يُشجع مزودوها على اتباع قواعد سلوك طوعية لضمان الشفافية.

التطبيق العالمي والإشراف

نطاق التطبيق: يتميز القانون بتطبيقه الإقليمي الواسع؛ فهو لا يقتصر على الجهات داخل الاتحاد الأوروبي، بل يشمل أيضاً المزودين والمستخدمين خارج الاتحاد إذا تم استخدام مخرجات أنظمتهم أو تأثيرها على أشخاص داخل الاتحاد الأوروبي.

الهيئات المشرفة: أنشأ القانون مكتب الذكاء الاصطناعي الأوروبي (European AI Office) للإشراف على تطبيق القانون، بالتعاون مع الهيئات الوطنية المختصة في كل دولة عضو.

العقوبات: يُفرض القانون عقوبات مالية صارمة على المخالفين، قد تصل إلى مبالغ كبيرة أو نسبة مئوية من الإيرادات العالمية السنوية للشركة المخالفة.

هذا الإطار التشريعي يهدف إلى تحقيق توازن دقيق بين تعزيز الابتكار التكنولوجي وضمان حماية الحقوق الأساسية والسلامة العامة، مما يضع الاتحاد الأوروبي في موقع ريادي لتشكيل المعايير العالمية لحوكمة الذكاء الاصطناعي.

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1319

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *