في خطوة تهدف إلى تعزيز أمان استخدام الذكاء الاصطناعي، أعلنت شركة “OpenAI” عن شرط جديد قد يُلزم المؤسسات بإجراء عملية تحقق من الهوية، للحصول على إذن استخدام بعض نماذجها المستقبلية.
التحقق المؤسسي.. شرط للدخول إلى النماذج المتقدمة
بحسب ما ورد على صفحة الدعم الرسمية لـ”OpenAI”، فإن عملية التحقق الجديدة، والتي تُعرف باسم “المؤسسة المُتحققة”، تمثل وسيلة جديدة تتيح للمطورين الوصول إلى أحدث النماذج والقدرات المتقدمة على منصة OpenAI، ولكن بشرط استيفاء متطلبات الهوية الرسمية.
هوية حكومية ودول محددة فقط
تشترط العملية تقديم هوية صادرة عن جهة حكومية من إحدى الدول المدعومة عبر واجهة برمجة تطبيقات OpenAI، بحسب تقرير لموقع “تك كرانش”، ما يعكس توجه الشركة نحو تقنين وصول المؤسسات واستخدام أدوات الذكاء الاصطناعي بشكل منظم وآمن.
مؤسسة واحدة كل 90 يومًا
أوضحت “OpenAI” أن كل هوية يمكن استخدامها للتحقق من مؤسسة واحدة فقط كل 90 يومًا، ولن تكون جميع المؤسسات مؤهلة للحصول على هذه الحالة، ما يعزز من صعوبة التحايل على الإجراءات الجديدة.
لماذا هذا الإجراء؟
أكدت الشركة أنها تتخذ هذه الخطوة للحد من الاستخدامات المخالفة لسياساتها، بعد رصد استخدام عدد من المطورين للمنصة بشكل متعمد في أنشطة تنتهك شروط الخدمة. وقالت الشركة:
“نعمل على إضافة عملية التحقق للحد من الاستخدام غير الآمن للذكاء الاصطناعي، مع الاستمرار في توفير النماذج المتقدمة لمجتمع المطورين الأوسع”.
أمن وملكية فكرية في المقدمة
وتسعى OpenAI إلى حماية نماذجها من الاستخدام الخبيث، مثل محاولات السرقة أو التجسس الصناعي. حيث أشارت تقارير سابقة إلى تحقيقات داخلية في تورط جهات من كوريا الشمالية، ومجموعة مرتبطة بمختبر الذكاء الاصطناعي الصيني “ديب سيك”، يُشتبه في أنها استغلت API “OpenAI” لجمع بيانات بشكل غير قانوني نهاية عام 2024.