وافقت شركتا OpenAI وAnthropic، على السماح لمعهد سلامة الذكاء الاصطناعي الأمريكي باختبار نماذجهما الجديدة قبل طرحها للجمهور، وذلك في ظل تزايد المخاوف في الصناعة بشأن السلامة والأخلاقيات في الذكاء الاصطناعي.
وذكر المعهد، الذي يتبع وزارة التجارة الأمريكية ويقع ضمن المعهد الوطني للمعايير والتكنولوجيا (NIST)، في بيان صحفي، اليوم الخميس، أنه سيحصل على “وصول إلى النماذج الجديدة الكبرى من كل شركة قبل وبعد إصدارها للجمهور”.
يأتي إنشاء هذه المجموعة، وفق ما ذكرته شبكة CNBC الأمريكية، بعد أن أصدرت إدارة الرئيس الأمريكي جو بايدن، أول أمر تنفيذي من نوعه في الولايات المتحدة بشأن الذكاء الاصطناعي في أكتوبر 2023، والذي يتطلب تقييمات سلامة جديدة، وتوجيهات حول العدالة والحقوق المدنية، وأبحاث حول تأثير الذكاء الاصطناعي على سوق العمل.
اتفاق مُطمئن
وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في منشور على منصة X: “نحن سعداء بالوصول إلى اتفاق مع معهد سلامة الذكاء الاصطناعي الأمريكي لاختبار نماذجنا المستقبلية قبل الإصدار”.
وأكدت OpenAI لشبكة CNBC يوم الخميس أن الشركة قد ضاعفت عدد المستخدمين النشطين أسبوعيًا إلى 200 مليون في العام الماضي، وكانت Axios أول من أبلغ عن هذا العدد.
اقرأ أيضا: تقرير: 10% زيادة في طلبيات آبل على مكونات آيفون 16
يأتي هذا الخبر بعد يوم واحد من تقارير تفيد بأن OpenAI تخوض محادثات لجمع جولة تمويلية تقدر قيمة الشركة بأكثر من 100 مليار دولار. وتقود الجولة شركة Thrive Capital، التي ستستثمر مليار دولار، وفقًا لمصدر مطلع على الأمر طلب عدم الكشف عن هويته لأن التفاصيل سرية.
وقد تأسست شركة Anthropic على يد مجموعة من التنفيذيين والموظفين السابقين في OpenAI، وقد تم تقييمها مؤخرًا بمبلغ 18.4 مليار دولار. وتعتبر أمازون من بين المستثمرين الرئيسيين في Anthropic، بينما تدعم Microsoft بشكل كبير شركة OpenAI.
أبحاث مشتركة
وأفاد البيان الصادر يوم الخميس بأن “الاتفاقيات بين الحكومة، OpenAI وAnthropic ستمكن من إجراء أبحاث تعاونية حول كيفية تقييم القدرات ومخاطر السلامة، وكذلك الأساليب التي يمكن اتباعها لتخفيف تلك المخاطر”.
اقرأ أيضا: myFirst تطلق أول كاميرا للأطفال تعمل بالذكاء الاصطناعي
وقال جايسون كوان، كبير مسؤولي الاستراتيجية في OpenAI، في بيان لشبكة CNBC: “نحن ندعم بقوة مهمة معهد سلامة الذكاء الاصطناعي الأمريكي ونتطلع إلى العمل معًا لوضع أفضل الممارسات والمعايير لسلامة نماذج الذكاء الاصطناعي”.
من جهته، صرح جاك كلارك، المؤسس المشارك لشركة Anthropic، بأن “تعاون الشركة مع معهد سلامة الذكاء الاصطناعي الأمريكي يستفيد من خبراتهم الواسعة لاختبار نماذجنا بشكل صارم قبل نشرها على نطاق واسع” ويعزز قدرتنا على تحديد المخاطر وتخفيفها، مما يدفع بتطوير الذكاء الاصطناعي المسؤول إلى الأمام”.
مخاوف متزايدة
وقد عبر عدد من مطوري الذكاء الاصطناعي والباحثين عن مخاوفهم بشأن السلامة والأخلاقيات في صناعة الذكاء الاصطناعي التي أصبحت تهتم بشكل متزايد بالربحية، حيث نشر موظفون حاليون وسابقون في OpenAI رسالة مفتوحة في 4 يونيو، يعبرون فيها عن مشاكل محتملة تتعلق بالتقدم السريع الذي يحدث في مجال الذكاء الاصطناعي وغياب الرقابة والحماية للمبلغين عن المخالفات.
وكتبوا: “لدى شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ولا نعتقد أن الهياكل الخاصة بالحوكمة المؤسسية كافية لتغيير هذا الوضع.” وأضافوا أن شركات الذكاء الاصطناعي “لديها حاليًا التزامات ضعيفة فقط لمشاركة بعض هذه المعلومات مع الحكومات، ولا شيء مع المجتمع المدني”، وأنه لا يمكن “الاعتماد عليها لمشاركة هذه المعلومات طوعًا”.
اقرأ أيضا: آبل تطلق ميزة لإزالة العناصر من الصور باستخدام الذكاء الاصطناعي
بعد أيام من نشر الرسالة، أكد مصدر مطلع لشبكة CNBC أن لجنة التجارة الفيدرالية (FTC) ووزارة العدل كانتا بصدد فتح تحقيقات بشأن مكافحة الاحتكار ضد OpenAI وMicrosoft وNvidia. ووصفت لينا خان، رئيسة لجنة التجارة الفيدرالية، إجراءات وكالتها بأنها “تحقيق في السوق حول الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي خدمات السحابة الكبرى.”
قانون مثير للجدل
أمس الأربعاء، أقر المشرعون في كاليفورنيا مشروع قانون سلامة الذكاء الاصطناعي المثير للجدل، وأرسلوه إلى مكتب الحاكم جافين نيوسوم. نيوسوم، وهو ديمقراطي، سيتخذ قرارًا إما باستخدام حق النقض ضد التشريع أو التوقيع عليه ليصبح قانونًا بحلول 30 سبتمبر.
وينص مشروع القانون على إلزامية اختبارات السلامة وغيرها من الإجراءات الاحترازية لنماذج الذكاء الاصطناعي التي تتجاوز تكلفتها أو قوتها الحاسوبية معايير معينة، وهو ما تعارضه بعض شركات التكنولوجيا بسبب تأثيره المحتمل على وتيرة الابتكار.