الدور الذي سيلعبه المنظمون لتقليل المخاطر الأمنية للذكاء الاصطناعي

مع ازدياد انتشار الذكاء الاصطناعي في مختلف الصناعات، فإن قوته التحويلية تأتي مصحوبة بتهديدات أمنية كبيرة. يتحرك الذكاء الاصطناعي بسرعة أكبر من السياسات، في حين تجاوز النشر السريع لتقنيات الذكاء الاصطناعي إنشاء أطر تنظيمية واسعة النطاق، مما يثير تساؤلات حول خصوصية البيانات، والآثار الأخلاقية، والأمن السيبراني. وتدفع هذه الفجوة الجهات التنظيمية إلى التدخل من خلال التوجيه في وضع معايير تقلل من المخاطر.

يشير تقرير صادر عن المنتدى الاقتصادي العالمي، بحسب تقرير نشره tripwire إلى أن المبادئ التوجيهية لأفضل الممارسات ضرورية للحفاظ على الشفافية المنهجية والمساءلة والمواءمة الاجتماعية في تصميم أنظمة الذكاء الاصطناعي. ومن المعقول أن نفترض أن الهيئات التنظيمية سوف تشكل في نهاية المطاف استخدام الذكاء الاصطناعي، وبشكل أكثر تحديدا، الاستراتيجيات اللازمة للحد من المخاوف الأمنية. سيكون الهدف الشامل للجهات التنظيمية هو إنشاء نظام بيئي آمن وموثوق للذكاء الاصطناعي. ويمكن تحقيق ذلك من خلال قياس المحاولات التنظيمية الحالية واقتراح الطرق المستقبلية للمضي قدمًا.

أهمية الرقابة التنظيمية في الذكاء الاصطناعي

يجب أن تراقب العين التنظيمية دائمًا تطور وتنفيذ تقنيات الذكاء الاصطناعي. ومن المفترض أن يساعد هذا الباحثين في المستقبل، لأن أنظمة الذكاء الاصطناعي التي تتعلم من مثل هذه البيانات دون مبادئ توجيهية يمكن أن تؤدي عن غير قصد إلى إدامة التحيزات، مما يؤدي إلى نتائج غير عادلة في جميع الصناعات. ويمكن أن يكون له أيضًا تأثيرات واسعة النطاق على ممارسات التوظيف والإقراض وإنفاذ القانون.

تعمل الآلات في كثير من الأحيان على إدامة التمييز القائم، ونحن بحاجة إلى آليات للتأكد من عدم حدوث ذلك. يمكن للوائح أن تفرض المعايير الأخلاقية لتجنب المخاطر المحتملة ولضمان العدالة في عالم الذكاء الاصطناعي. الهيئات التنظيمية في طليعة حماية هذه البيانات والحق في خصوصية المستهلكين.

القانون العام

في أوروبا، تتطلب اللوائح مثل القانون العام لحماية البيانات (GDPR) من الشركات الحصول على موافقة صريحة من المستخدمين قبل جمع البيانات الشخصية. كما يوفر للمستخدمين إمكانية عرض التفاصيل أو استخراجها أو حذفها عند الطلب. من الصعب منع خروقات البيانات وإساءة استخدامها، ولهذا السبب تهدف لوائح الامتثال هذه إلى حماية خصوصية المستهلك وأمنه.

يعد تخفيف التحيز أمرًا مهمًا إذا أردنا قبول تقنيات الذكاء الاصطناعي على نطاق واسع. وهنا يأتي دور الرقابة التنظيمية للتأكد من أن الذكاء الاصطناعي آمن وموثوق ومسؤول عن تعزيز هذه الثقة. ومن المرجح أن يتبنى الناس هذه التقنيات عندما يعلمون أن هناك لوائح تنظيمية من شأنها فرض التطوير المسؤول واستخدام الذكاء الاصطناعي، مما يمنع الإفراط في استخدامها. ومن المتوقع أيضًا أن تنفذ الهيئات التنظيمية معايير الشفافية والمساءلة، والتي يمكن أن تأخذ شكل تفسيرات لكيفية عمل خوارزمياتها للشركات.

وتساعد هذه الشفافية بدورها في جعل الذكاء الاصطناعي أقل غموضا، مما يطمئن الجمهور إلى أن مثل هذه التكنولوجيات تستخدم بطريقة مسؤولة.

الهيئات التنظيمية الرئيسية المشاركة في حوكمة الذكاء الاصطناعي

تعتبر الهيئات التنظيمية على المستويات الدولية والوطنية والخاصة بالصناعة مهمة لحوكمة الذكاء الاصطناعي. ومن بين المنظمات الرئيسية المشاركة في هذا الجهد ما يلي:

منظمات دولية

  1. **منظمة التعاون الاقتصادي والتنمية (OECD)**

– وضعت منظمة التعاون الاقتصادي والتنمية مبادئ الذكاء الاصطناعي لتوفير التوجيه بشأن الذكاء الاصطناعي، الذي يتمحور حول الإنسان، ويكون مبتكرًا وجديرًا بالثقة، ويحترم حقوق الإنسان والقيم الديمقراطية. تعمل المبادئ التوجيهية بمثابة خريطة طريق لهذا النوع من صنع السياسات بين البلدان الأعضاء – لجعل الذكاء الاصطناعي يعمل بشكل جيد لأكبر عدد ممكن من الناس.

  1. **الأمم المتحدة (الأمم المتحدة)**

– تعمل الأمم المتحدة على تطوير معايير عالمية للذكاء الاصطناعي من خلال وكالات مثل اليونسكو. أحد المبادئ التوجيهية الرئيسية هو العمل على أن تتم التطورات في مجال الذكاء الاصطناعي بالتوافق مع اللوائح المتعلقة بحقوق الإنسان، والتنمية المسؤولة، والاعتبارات الأخلاقية.

الوكالات التنظيمية الوطنية

  1. **لجنة التجارة الفيدرالية الأمريكية (FTC)**

– تتمثل مهمة لجنة التجارة الفيدرالية في حماية الجمهور من الممارسات التجارية الخادعة أو غير العادلة ومن أساليب المنافسة غير العادلة. كما أنها تتعاون مع وكالات إنفاذ القانون الأخرى لتنفيذ التوجيهات المشتركة بين الوكالات والقواعد الخاصة بكل وكالة فيما يتعلق بالذكاء الاصطناعي.

  1. **اللائحة العامة لحماية البيانات (GDPR)**

– هو التشريع المعمول به في الاتحاد الأوروبي. على الرغم من أنها تركز في المقام الأول على الخصوصية، إلا أنها تحتوي على أجزاء وثيقة الصلة بالذكاء الاصطناعي، كما هو الحال في مجالات جمع البيانات ومعالجتها وموافقة المستخدم والشفافية. إن التفسير المعقول للائحة العامة لحماية البيانات يوسع نطاقه لضمان أن أنظمة الذكاء الاصطناعي ستحترم خصوصية الفرد وأمن بياناته.

  1. **هيئة تنظيم الصناعة المالية (FINRA)**

– توصف FINRA بأنها “منظمة ذاتية التنظيم (SRO) تشرف على شركات الوساطة المالية والوسطاء المسجلين ومعاملات السوق في الولايات المتحدة. وبتفويض من هيئة الأوراق المالية والبورصة (SEC)، تكتب FINRA القواعد التي يجب على الوسطاء الالتزام بها، وتقوم بتقييم امتثال الشركات لتلك القواعد، وتأديب الوسطاء الذين لا يلتزمون بها.”

الهيئات التنظيمية الخاصة بالصناعة

  1. **المستوى الصحي السابع الدولي (HL7)**

– في مجال الرعاية الصحية، HL7 هي “منظمة تطوير معايير مكرسة لتوفير إطار شامل ومعايير ذات صلة لتبادل وتكامل ومشاركة واسترجاع المعلومات الصحية الإلكترونية التي تدعم الممارسة السريرية وإدارة وتقديم وتقييم الخدمات الصحية.” تعتبر هذه المعايير حيوية لضمان سلامة وفعالية وقابلية التشغيل البيني لأنظمة الذكاء الاصطناعي في مجال الرعاية الصحية.

التوجيهات غير التنظيمية

  1. **المعهد الوطني للمعايير والتكنولوجيا (NIST)**

– على الرغم من أنها ليست هيئة تنظيمية، إلا أن NIST هي إحدى السلطات الأكثر احترامًا التي تصدر وثائق توجيهية لمحترفي التكنولوجيا. غالبًا ما تُستخدم هذه المستندات كأساس لتحقيق الامتثال للوائح والمعايير. يقدم NIST معلومات محددة حول مجموعة متنوعة من المواضيع ويستضيف حاليًا 2190 مستندًا خاصًا بتكنولوجيا المعلومات و1413 مستندًا خاصًا بالأمن السيبراني.

تجاوز اللوائح والمعايير

وبعيداً عن المعايير والقوانين الفنية، تشكل المبادئ التوجيهية الأخلاقية أهمية بالغة لتوجيه الاستخدام المسؤول للذكاء الاصطناعي. توفر الإرشادات المختلفة، مثل المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي التي طورتها المفوضية الأوروبية، مبادئ لتطوير ونشر أنظمة الذكاء الاصطناعي بشكل أخلاقي. تؤكد هذه المبادئ التوجيهية على الشفافية والمساءلة والإنصاف، مما يضمن استخدام تقنيات الذكاء الاصطناعي بطرق تحترم حقوق الإنسان والقيم المجتمعية.

استراتيجيات لتقليل المخاطر الأمنية للذكاء الاصطناعي

لحماية أنظمة الذكاء الاصطناعي من التهديدات السيبرانية، من الضروري ممارسة النظافة الأساسية للأمن السيبراني، مثل استخدام التشفير لحماية البيانات، وتنفيذ ممارسات الترميز الآمن، وضمان التحديثات والتصحيحات المنتظمة لإصلاح نقاط الضعف.  يؤكد جميع المتخصصين في مجال الأمن على أن المؤسسات التي تلتزم ببروتوكولات الأمان الشاملة وتنظيم الأمن السيبراني تقلل بشكل كبير من مخاطر اختراق البيانات.

يعد إجراء عمليات تدقيق منتظمة وفحوصات للامتثال أمرًا ضروريًا لتحديد وتخفيف المخاطر الأمنية في جميع الأنظمة. تساعد عمليات التدقيق هذه على ضمان امتثال الأنظمة لمعايير ولوائح الصناعة.

تعد الشفافية والمساءلة عنصرين أساسيين في بناء الثقة في تقنيات الذكاء الاصطناعي. يجب على المطورين التواصل بشكل علني حول كيفية تصميم أنظمة الذكاء الاصطناعي واستخدامها ومن المسؤول عن تشغيلها. تتيح هذه الشفافية للمستخدمين فهم المخاطر والفوائد المحتملة للذكاء الاصطناعي.

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 128

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *