“أنثروبيك” تُشدّد سياسة استخدام روبوت الدردشة “كلود” لمواجهة مخاطر الأمن السيبراني

أعلنت شركة الذكاء الاصطناعي “أنثروبيك” عن تحديثات جديدة في سياسة استخدام روبوت الدردشة الخاص بها “كلود”، ضمن جهودها للحد من المخاطر المتعلقة بالسلامة والأمن السيبراني، بما في ذلك تطوير الأسلحة والبرمجيات الخبيثة.

توسّع الحظر ليشمل أسلحة أكثر خطورة

كانت النسخة السابقة من سياسة الاستخدام تحظر على المستخدمين استخدام “كلود” لإنتاج أو تعديل أو تصميم أو تسويق أو توزيع الأسلحة أو المتفجرات أو المواد الخطرة أو أي أنظمة مصممة لإحداث ضرر أو خسائر في الأرواح البشرية.

أما السياسة الجديدة، فتوسّعت لتشمل المتفجرات عالية القوة، والأسلحة البيولوجية، النووية، الكيميائية والإشعاعية، في خطوة تهدف إلى تقليل فرص إساءة استخدام الذكاء الاصطناعي في المجالات الحساسة.

تعزيز أمان نموذج الذكاء الاصطناعي

في مايو الماضي، أطلقت “أنثروبيك” حماية مستوى أمان الذكاء الاصطناعي 3 مع نموذجها الجديد Claude Opus 4، ما يجعل من الصعب اختراق النموذج أو استخدامه في تطوير أسلحة كيمياوية أو بيولوجية أو نووية أو إشعاعية.

مواجهة مخاطر أدوات الذكاء الاصطناعي الوكيل

أضافت الشركة أيضًا تحذيرات حول المخاطر التي قد تنشأ عن أدوات مثل “استخدام الحاسوب”، الذي يسمح لـ”كلود” بالتحكم في جهاز المستخدم، و**”Claude Code”**، التي تُدمج النموذج مباشرة في جهاز المطور.

وأشار بيان الشركة إلى أن هذه القدرات قد تُستغل لإساءة الاستخدام على نطاق واسع، بما في ذلك إنشاء برمجيات خبيثة وهجمات إلكترونية، لذا تم إدراج قسم جديد في سياسة الاستخدام يمنع استخدام “كلود” لاكتشاف أو استغلال الثغرات الأمنية، أو إنشاء وتوزيع البرامج الخبيثة.

وتأتي هذه التعديلات ضمن جهود “أنثروبيك” المستمرة لضمان أمان المستخدمين والمجتمع وتقليل المخاطر المرتبطة بالذكاء الاصطناعي، مع التركيز على الاستخدام المسؤول للتقنيات المتقدمة.

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 883

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *