OpenAI تعزز أمنها الداخلي بعد اتهام شركة صينية بسرقة نماذج الذكاء الاصطناعي

إجراءات أمنية صارمة لحماية الملكية الفكرية

كشفت تقارير تقنية أن شركة OpenAI قامت بإصلاحات شاملة في منظومتها الأمنية، وذلك في إطار سعيها لمنع التجسس الصناعي، وحماية نماذجها المتقدمة للذكاء الاصطناعي من محاولات النسخ غير القانوني.

وجاءت هذه التحركات بعد إطلاق شركة ديب سيك الصينية الناشئة نموذج ذكاء اصطناعي منافس في يناير الماضي، أثار شكوكًا واسعة بشأن طرق تطويره.

اتهامات باستخدام تقنية “التقطير” لنسخ النماذج

وفقًا لما أورده موقع “تك كرانش”، واطّلعت عليه “العربية Business”، فإن “OpenAI” تتهم “ديب سيك” باستخدام تقنيات التقطير (Distillation) في محاكاة غير مشروعة لنماذجها، وهي تقنيات تهدف إلى تقليد سلوك النماذج الكبرى باستخدام بيانات تم جمعها من أدائها.

سياسات جديدة لإخفاء المعلومات وحصر الوصول

ضمن جهودها لتعزيز الأمن، بدأت OpenAI في تطبيق سياسات صارمة تُقيّد وصول الموظفين إلى الخوارزميات الحساسة والمنتجات الجديدة. على سبيل المثال، خلال تطوير نموذجها O1، تم حصر المناقشات الخاصة بالمشروع على عدد محدود من الموظفين الموثوقين، مع منع تداول تفاصيله في المساحات المشتركة داخل مقرات العمل.

حواسيب غير متصلة بالإنترنت وضوابط بيومترية

من بين الإجراءات الجديدة، أصبحت الشركة تعزل تقنياتها الحساسة عن الإنترنت، وتعتمد أنظمة تحكم بيومترية تعتمد على بصمة الإصبع للدخول إلى المكاتب الحساسة، بالإضافة إلى تفعيل سياسة “رفض افتراضي” لأي اتصال خارجي، تتطلب موافقة مسبقة وصريحة.

تعزيز الأمن السيبراني والمادي

علاوة على ذلك، قامت الشركة بتعزيز الأمن المادي في مراكز البيانات، ورفعت عدد موظفي الأمن السيبراني، في محاولة لردع أي محاولات تسلل أو سرقة معلومات داخلية.

مخاوف من خصوم أجانب وتسريبات داخلية

وترى مصادر مطلعة أن هذه الإجراءات لا تأتي فقط كرد فعل على التهديدات الخارجية من خصوم دوليين يسعون لسرقة الملكية الفكرية، بل أيضًا كرد فعل داخلي على التسريبات المتكررة المتعلقة بتصريحات الرئيس التنفيذي سام ألتمان، والصراعات المستمرة داخل قطاع الذكاء الاصطناعي الأميركي.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1320

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *