باحثون: نماذج الذكاء الاصطناعي تحتاج معايير واختبارات صارمة قبل الإطلاق

دعوات لتشديد الرقابة.. وتحذيرات من استخدامات خبيثة وسط غياب اللوائح التنظيمية

في ظل التوسع السريع في تبني تقنيات الذكاء الاصطناعي على نطاق عالمي، حذّر باحثون من خطورة نقص اللوائح التنظيمية ومعايير الاختبار التي تخضع لها النماذج اللغوية الكبرى، مؤكدين أن الاستعجال في إصدارها دون تقييم كافٍ يزيد من احتمالات التسبب بأضرار غير مقصودة.

سلوكيات غير مرغوبة ومخاطر متصاعدة

وفقًا لتقرير نشرته شبكة “CNBC”، فإن الاستخدام المتزايد للذكاء الاصطناعي أتاح سيناريوهات متعددة، بعضها ينطوي على ردود ضارة مثل خطاب الكراهية، وانتهاك حقوق الملكية، والمعلومات المضللة. ويعزى تفاقم هذه السلوكيات إلى ضعف القواعد المنظمة، وغياب اختبارات الضغط الكافية قبل نشر النماذج.

راندو: لا نعرف كيف نتحكم في سلوك النماذج

قال الباحث في الذكاء الاصطناعي خافيير راندو إن تجربة نحو 15 عامًا من البحث لم تُسفر بعد عن إجابة واضحة حول كيفية جعل نماذج التعلم الآلي تعمل بالشكل المطلوب، مشيرًا إلى أن التحسن لا يزال بطيئًا. وأكد أن النماذج تُظهر ردودًا غير متوقعة أو غير آمنة حتى بعد تدريب مكثف.

الفرق الحمراء.. خط الدفاع الأول

أشار الباحث شاين لونغبري، رئيس مبادرة “Data Provenance”، إلى أهمية “الفرق الحمراء” — وهي مجموعات مختصة باختبار النماذج لرصد الثغرات والمخاطر المحتملة — مؤكدًا وجود نقص حاد في عدد المختصين القادرين على أداء هذه المهام. كما دعا إلى فتح باب التقييم لأطراف ثالثة تشمل الصحفيين والباحثين والمخترقين الأخلاقيين.

تقارير العيوب والحوافز ضرورة

من بين أبرز التوصيات التي خرجت بها الدراسات:

  • توحيد تقارير “عيوب الذكاء الاصطناعي”.
  • تقديم حوافز للإبلاغ عنها.
  • تطوير آليات شفافة لنشر العيوب المكتشفة، بما يضمن مشاركة مجتمعية أوسع في اختبار سلامة النماذج.

مشروع Moonshot.. نموذج للتقييم الشامل

سلّط التقرير الضوء على مشروع “Moonshot” الذي أطلقته سنغافورة بالتعاون مع IBM وDataRobot، والذي يجمع أدوات تقييم تشمل المعايير الفنية والفرق الحمراء واختبارات الأساس. وصرّح أنوب كومار، مسؤول هندسة العملاء في IBM، أن المشروع لقي اهتمامًا متباينًا من الشركات الناشئة، لكنه يمثل خطوة ضرورية نحو ضمان السلامة والموثوقية.

مقارنات بقطاعي الأدوية والطيران

من جانبه، شدد بيير ألكييه، أستاذ الإحصاء في كلية ESSEC، على ضرورة أن تمر نماذج الذكاء الاصطناعي بنفس مستوى التدقيق الذي تخضع له الأدوية أو الطائرات قبل طرحها، معتبرًا أن الانتقال من نماذج عامة إلى أدوات مصممة لمهام محددة قد يسهم في تقليل الاستخدامات الضارة والسيطرة عليها.

الخلاصة: لا تأمين دون تقييم

خلص الباحثون إلى أن نماذج الذكاء الاصطناعي — خاصة العامة والضخمة — لا تزال غير قابلة للتنبؤ بسلوكها بالكامل، ما يستوجب تطوير نظام رقابي شامل متعدد المستويات، يشمل القوانين والسياسات وفرق الاختبار والتقييم الفني.

في ظل غياب هذه الخطوات، سيظل الذكاء الاصطناعي أداة قوية ولكنها محفوفة بالمخاطر.

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 967

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *