الذكاء الاصطناعي والبشر: تحديات السيطرة وآفاق التعاون المستقبلي

شركات الذكاء الاصطناعي مدعوة لإجراء حسابات سلامة مماثلة لاختبار ترينيتي النووي

حثّ ماكس تيجمارك، الخبير الرائد في مجال سلامة الذكاء الاصطناعي، شركات الذكاء الاصطناعي على إجراء حسابات سلامة مشابهة لتلك التي اعتمد عليها الفيزيائي آرثر كومبتون قبل اختبار “ترينيتي” النووي، وذلك قبل إطلاق أنظمتها فائقة القدرة.

تحذير من تهديد وجودي محتمل

صرّح تيجمارك أنه أجرى حسابات مشابهة لتلك التي أجراها كومبتون، ووجد أن هناك احتمالاً بنسبة 90% أن يشكل الذكاء الاصطناعي المتطور تهديدًا وجوديًا. وقد أوصى، في ورقة بحثية نشرها مع ثلاثة من طلابه في معهد ماساتشوستس للتكنولوجيا (MIT)، بحساب “ثابت كومبتون” المُعرّف في الورقة كاحتمال فقدان السيطرة على الذكاء الاصطناعي الفائق.

ثابت كومبتون وأهمية الحسابات الدقيقة

أوضح تيجمارك أن على شركات الذكاء الاصطناعي أن تتحمل مسؤولية حساب احتمالية خروج الأنظمة الذكية عن السيطرة البشرية. وقال: “على الشركات التي تُطوّر الذكاء الفائق أن تحسب ثابت كومبتون، وهو احتمال فقدان السيطرة عليه”، مشيرًا إلى أن “الرضا لا يكفي” بل يجب تحديد النسبة المئوية لذلك الاحتمال.

الإرادة السياسية لتطوير أنظمة سلامة عالمية

أشار تيجمارك إلى أن حسابات ثابت كومبتون من قبل شركات متعددة ستساعد في خلق “الإرادة السياسية” اللازمة لتطوير أنظمة سلامة عالمية للذكاء الاصطناعي، بهدف تقليل المخاطر المرتبطة بتطوير الأنظمة الذكية.

السباق نحو الذكاء الاصطناعي القوي

تيجمارك، الذي يعمل أيضًا في معهد “مستقبل الحياة” غير الربحي، قد نشر رسالة مفتوحة في عام 2023 يدعو فيها إلى التوقف المؤقت عن تطوير أنظمة الذكاء الاصطناعي فائقة القدرة. وقد وقّع أكثر من 33,000 شخص على الرسالة، بمن فيهم إيلون ماسك وستيف وزنياك، مؤسس أبل، محذرين من أن مختبرات الذكاء الاصطناعي دخلت في “سباق خارج عن السيطرة” لتطوير “عقول رقمية أقوى” يصعب فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1320

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *