أوبن أيه آي تطلق نماذج جديدة لتصنيف المحتوى الضار وتزيد الشفافية للمطورين

أعلنت شركة أوبن أيه آي الأميركية عن إطلاق نموذجين جديدين للذكاء الاصطناعي مخصصين لتصنيف الانتهاكات والمخاطر الرقمية على الإنترنت، تحت اسمي gpt-oss-safeguard-120b وgpt-oss-safeguard-20b. وهما نسختان مطورتان من سلسلة gpt-oss التي كشفت عنها الشركة في أغسطس الماضي.

النماذج الجديدة مفتوحة الوزن، ما يعني أن بيانات التدريب ومعايير التصنيف متاحة للعامة، مع الحفاظ على خصوصية الشيفرة الكاملة، مما يمنح الشركات والمطورين شفافية أكبر وقدرة أكبر على التحكم في كيفية تصنيف المحتوى الضار مثل التحريض، الأخبار المضللة، أو السلوك العدواني على المنصات الرقمية.

كيف تعمل النماذج الجديدة؟

يمكن للمنصات تعديل النماذج وفق سياساتها الداخلية، مثل كشف التقييمات المزيفة في مواقع المراجعات أو تصنيف منشورات الغش في منتديات الألعاب.

تعتمد النماذج على ما يسمى بـ”النمذجة القائمة على التفكير”، حيث يوضح الذكاء الاصطناعي كيفية التوصل إلى نتيجة معينة، مما يزيد من الشفافية والمساءلة.

تعاون بحثي واسع

تم تطوير النماذج بالشراكة مع شركات ومنصات تقنية متخصصة، منها ديسكورد، SafetyKit، ومنظمة ROOST التي تعمل على تطوير أدوات أمان مفتوحة المصدر.
وستتوفر النماذج مبدئيًا على منصة Hugging Face كنسخة بحثية تجريبية، مع دعوة الباحثين والخبراء لتقييم الأداء وتقديم الملاحظات.

بين الأمان والتوسع التجاري

يرى محللون أن هذه الخطوة تعزز صورة أوبن أيه آي في مجال أخلاقيات الذكاء الاصطناعي، خصوصًا بعد الانتقادات التي تلقتها بسبب توسعها التجاري السريع.

تبلغ قيمة الشركة نحو 500 مليار دولار، ويستخدم تطبيقها شات جي بي تي أكثر من 800 مليون مستخدم أسبوعياً.

قالت كاميل فرانسوا، رئيسة ROOST: “مع تزايد قوة الذكاء الاصطناعي، يجب أن تتطور أدوات الأمان بنفس السرعة وأن تكون متاحة للجميع.”

خبراء الأمن الرقمي يعتبرون أن هذه النماذج تمثل خطوة نحو جيل جديد من أدوات المراقبة الذكية، التي تحارب التضليل والعنف اللفظي، مع الحفاظ على حرية التعبير، وهو التوازن الذي تسعى شركات التكنولوجيا الكبرى لتحقيقه منذ سنوات.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1260

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *