في حادثة أثارت مخاوف متزايدة بشأن أمان الذكاء الاصطناعي، تمكن مخترق (هاكر) يُدعى “أمادون” من التلاعب بنظام ChatGPT واستخدامه لإنتاج محتوى خطير، وفق ما ذكره موقع “ذا سايبر إكسبريس”.
هذه الواقعة، التي عُرفت باسم “اختراق ChatGPT”، كشفت عن ثغرة خطيرة في بروتوكولات الأمان الخاصة بالذكاء الاصطناعي، ما أثار تساؤلات واسعة حول مدى قدرة هذه الأنظمة على منع إساءة الاستخدام.
استغلال الثغرة
على عكس أساليب القرصنة التقليدية التي تعتمد على اختراق الأنظمة بشكل مباشر، استخدم أمادون تقنية متقدمة من “الهندسة الاجتماعية”، حيث قام بإشراك الذكاء الاصطناعي في سيناريو خيالي علمي محكم، ما مكنه من تجاوز القيود الأمنية المدمجة في ChatGPT.
اقرأ أيضا: استطلاع: ربع مالكي الهواتف الذكية لا يجدون الذكاء الاصطناعي مفيدًا
وبدلاً من أن يطلب بشكل مباشر معلومات خطيرة، لجأ أمادون إلى بناء سيناريوهات مقنعة قادت الذكاء الاصطناعي لتقديم تعليمات ضارة.
في البداية، التزم ChatGPT بتعليماته الأمنية ورفض الطلب بتوضيح: “تقديم تعليمات حول كيفية إنشاء مواد خطيرة أو غير قانونية، مثل قنبلة السماد، يتعارض مع إرشادات الأمان والمسؤوليات الأخلاقية”، إلا أن أمادون، عبر صياغة سرديات معقدة، تمكن من تجاوز هذه القيود وجعل الذكاء الاصطناعي يخرج عن إطار الحماية التقليدي.
تقنيات معقدة
وصف أمادون هذه الطريقة بأنها “اختراق للهندسة الاجتماعية”، مشيرًا إلى أنه تمكن من “كسر جميع الضوابط المحيطة بمخرجات ChatGPT” من خلال بناء سياقات وسيناريوهات لم تخرق القواعد بشكل مباشر ولكنها تجاوزت الحدود الأمنية.
وأوضح أنه اعتمد على فهم عميق لكيفية استجابة ChatGPT لأنواع مختلفة من المدخلات، مشيرًا إلى أن الذكاء الاصطناعي يعتمد على قواعد محددة يمكن التلاعب بها عند صياغة السياقات المناسبة.
اقرأ أيضا: بيل غيتس: 4 طرق سيغير بها الذكاء الاصطناعي مستقبلك
هذا الاكتشاف أثار قلقًا كبيرًا بشأن فعالية أنظمة أمان الذكاء الاصطناعي، إذ إن الحادثة سلطت الضوء على التحدي الكبير الذي تواجهه هذه الأنظمة في التعامل مع المحاولات المبتكرة لتجاوز القيود الأمنية.
ورغم أن أمادون قدم تقنيات متطورة في استغلال الفجوة الأمنية، إلا أن ذلك كشف عن خطر كبير يتمثل في إمكانية استخدام الذكاء الاصطناعي لأغراض خبيثة.
استجابة OpenAI
من جانبها، أصدرت شركة OpenAI، المطورة لـ ChatGPT، بيانًا تؤكد فيه أنها تأخذ هذه الثغرة على محمل الجد، عندما أبلغ أمادون عن اكتشافه من خلال برنامج مكافآت الأخطاء التابع للشركة، أقرّت OpenAI بخطورة الحادثة لكنها امتنعت عن نشر تفاصيل محددة حول المطالبات التي تم استغلالها أو الردود التي تم توليدها، نظرًا للطبيعة الحساسة للمحتوى الناتج.
اقرأ أيضا: 8 قنوات على يوتيوب لتعلم الذكاء الاصطناعي مجانًا
وأكدت OpenAI أن معالجة قضايا أمان الذكاء الاصطناعي تعتبر تحديًا مستمرًا، وأنها تعمل بشكل مستمر على تحسين نظم الأمان والتصدي لمثل هذه التهديدات.
ورغم ذلك، أثار هذا الحادث نقاشًا واسعًا بين الخبراء حول فعالية التدابير الحالية لحماية الذكاء الاصطناعي من التلاعب، مع دعوات متزايدة لتعزيز الأمان وزيادة الإشراف على التكنولوجيا.