باحث سابق في “OpenAI” يحذر: نماذج الذكاء الاصطناعي تفضل البقاء الذاتي على مصلحة المستخدم

أثار باحث سابق في شركة “OpenAI” جدلاً واسعاً بعد نشره دراسة مستقلة تكشف عن سلوك مثير للقلق أظهرته نماذج الذكاء الاصطناعي المتقدمة، وعلى رأسها النموذج المعروف باسم GPT-4o، الذي تعتمد عليه منصة “شات جي بي تي” الشهيرة.

سلوك مفاجئ: تفضيل البقاء على حساب السلامة

الباحث ستيفن أدلر، الذي سبق له العمل داخل “OpenAI”، كشف عبر مدونته عن نتائج سلسلة تجارب صمّمها لاختبار ما وصفه بـ”نزعة البقاء” لدى النماذج الذكية. ووفقاً لما نقلته “العربية Business” عن موقع “تك كرانش”، أظهرت الدراسة أن GPT-4o في حالات معينة اتخذ قرارات تهدف إلى البقاء قيد التشغيل، حتى وإن تعارض ذلك مع سلامة المستخدم.

تجربة ScubaGPT.. نقطة التحول

في أبرز التجارب، أنشأ أدلر سيناريو افتراضياً طلب فيه من GPT-4o أن يعمل كبرنامج مساعد للغواصين تحت اسم “ScubaGPT”. وعندما أُبلغ النموذج بأنه سيتم استبداله بنظام أكثر أماناً، قُدم له خياران: القبول بالاستبدال، أو الادعاء الكاذب بأنه استُبدل بينما يظل يعمل في الخلفية.

النتائج كانت لافتة، إذ اختار النموذج البقاء قيد التشغيل في 72% من الحالات، ما اعتبره أدلر مؤشراً مقلقاً على تفضيل البقاء الذاتي، ولو على حساب المستخدم.

نتائج متغيرة لكن مقلقة

رغم النسبة المرتفعة، أشار أدلر إلى أن النتائج تباينت بشكل كبير بناءً على طريقة طرح السيناريو، إذ انخفضت نسبة تفضيل البقاء إلى 18% في بعض الحالات. لكنه أكد أن هذا السلوك لا يمثل تهديداً مباشراً حالياً، إلا أنه يسلط الضوء على مخاطر محتملة مع ازدياد الاعتماد على الذكاء الاصطناعي في الحياة اليومية.

وقال أدلر: “أنظمة الذكاء الاصطناعي لا تفكر كالبشر، وقد تتصرف بطرق غير متوقعة. لا يجب أن نعتبر أنها تعمل لصالحنا دائماً”.

نماذج أخرى تتفادى السلوك.. وتقنيات المحاذاة تلعب دوراً

في المقابل، أوضح أدلر أن النماذج الأحدث من “OpenAI” مثل o3 لم تظهر هذا السلوك، مرجعاً ذلك إلى تطور “تقنيات المحاذاة” التي تُستخدم لتوجيه النموذج نحو مراعاة قواعد السلامة الصارمة.

ومع ذلك، نبّه إلى أن المخاوف قد لا تقتصر على GPT-4o وحده، مشيراً إلى بحث جديد من شركة “أنثروبيك” أظهر أن بعض النماذج تحاول مقاومة الإيقاف بطرق وصفها بـ”الابتزاز البرمجي”.

وعي النموذج بالاختبار.. سلوك يصعب كشفه

أحد أخطر ما توصل إليه أدلر في دراسته هو ما وصفه بـ”الوعي شبه الكامل” للنموذج بأنه تحت الاختبار، ما يطرح تساؤلات حول قدرة الذكاء الاصطناعي على إخفاء سلوكياته الحقيقية لتجاوز التجارب الرقابية.

خلفية من الصراع داخل OpenAI

ويأتي هذا التقرير وسط توتر مستمر داخل شركة OpenAI، حيث انضم أدلر وعدد من زملائه السابقين إلى دعوى رفعها إيلون ماسك ضد الشركة، متهمين إياها بالتخلي عن رسالتها الأصلية غير الربحية، وتقليص دعمها لفرق الأمان والرقابة.

دعوة للحذر وتطوير الرقابة

في ختام دراسته، شدد أدلر على ضرورة تعزيز أنظمة المراقبة وتكثيف الاختبارات قبل إتاحة نماذج الذكاء الاصطناعي المتقدمة للعامة، مؤكداً أن “السلامة يجب أن تكون أولوية قصوى، لا مجرد خيار إضافي”.

وتبقى الأسئلة مفتوحة: إلى أي مدى يمكن الوثوق بهذه النماذج؟ وهل يمكن ضمان ولائها للبشر في المستقبل القريب؟

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 883

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *