أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن إطلاق وظيفة جديدة باسم “رئيس الاستعداد”، تهدف إلى مراقبة تطورات أنظمة الذكاء الاصطناعي المتقدمة والتنبؤ بالمخاطر المحتملة قبل وقوعها، مع وضع آليات للحد من أي تأثير سلبي محتمل على المستخدمين والمجتمع، مع الحفاظ على الفوائد الكبيرة لهذه التقنيات.
مهام رئيس الاستعداد: حماية الذكاء الاصطناعي وضمان السلامة
وأوضح ألتمان أن الشخص الذي سيتولى المنصب يجب أن يمتلك أعصاب فولاذية وعقلًا تقنيًا حادًا، وأن يكون قادرًا على اتخاذ قرارات مصيرية في ظروف غير واضحة. وسيكون مسؤولًا عن:
- قيادة إطار داخلي لتقييم المخاطر المرتبطة بالذكاء الاصطناعي.
- بناء نماذج للتهديدات المحتملة وتطوير آليات أمان قابلة للتوسع.
- التنسيق بين فرق البحث والهندسة والسياسات والحوكمة لضمان وضع السلامة على رأس الأولويات.
- المشاركة في اتخاذ قرارات حساسة بشأن إطلاق القدرات الجديدة أو إيقافها إذا لزم الأمر.
الذكاء الاصطناعي المتقدم يتطلب نهجًا أعمق
وأشار ألتمان إلى أن اختبارات الذكاء الاصطناعي التقليدية لم تعد كافية، خاصة بعد ظهور قدرات متقدمة لدى أنظمة مثل ChatGPT، بما يشمل التفكير والتحليل والبرمجة، إضافة إلى سلوكيات غير متوقعة قد تتضمن اكتشاف ثغرات أمنية أو التأثير على السلوك البشري بطرق خفية.
وأكد ألتمان أن المنصب الجديد يتطلب خلفيات في سلامة الذكاء الاصطناعي، الأمن السيبراني، أو نمذجة التهديدات، مع قدرة على العمل عبر فرق متعددة التخصصات ودمج البحث التقني مع صناعة القرار الاستراتيجي، ليصبح الحارس الداخلي لنماذج ChatGPT المستقبلية وضمان توافقها مع القيم الإنسانية.
تحول في نهج OpenAI نحو الابتكار المسؤول
وصف ألتمان هذا القرار بأنه يمثل تحولًا رصينًا في نهج OpenAI، بعد سنوات من التركيز على دفع حدود التقنية وإبهار المستخدمين، مؤكدًا أن الشركة الآن تولي اهتمامًا متساويًا للاستعداد لما قد يفعله الذكاء الاصطناعي مستقبلًا، بما يضمن أن تظل التكنولوجيا آمنة ومفيدة للبشر.




