اكتشاف طرق جديدة للاحتيال المالي باستخدام ChatGPT
في ظل تزايد استخدام الذكاء الاصطناعي، تزداد المخاوف الأمنية المرتبطة بإمكانية استغلاله في عمليات احتيالية.
وقد اكتشف باحثون من جامعة “إلينوي في أوربانا-شامبين” (UIUC) ثغرات أمنية جديدة يمكن للمحتالين استغلالها من خلال واجهة برمجة التطبيقات الصوتية في برنامج ChatGPT-4o التابع لـ OpenAI. يتميز هذا النموذج بقدرات نصية وصوتية وبصرية، مما يتيح للمستخدمين التفاعل بطرق متعددة، ولكنه يفتح المجال أيضًا لبعض المخاطر المتعلقة بالسلامة.
إجراءات الأمان من OpenAI لمكافحة الاحتيال
لمنع استغلال تكنولوجيا ChatGPT في عمليات الاحتيال، قامت OpenAI بدمج إجراءات أمان تستهدف منع المحتوى الضار. تضمنت هذه الإجراءات تقنيات لحظر تكرار الأصوات غير المصرح بها، مما يساهم في تقليل مخاطر انتحال الهوية. ورغم هذه التدابير، أظهرت دراسة أن هذه الحماية قد لا تكون كافية لمكافحة بعض عمليات الاحتيال، حيث تمكن الباحثون من تجاوز الدفاعات بسهولة نسبية.
اختبار نقاط الضعف باستخدام وكيل الذكاء الاصطناعي
اعتمد الباحثون في تجاربهم على إنشاء وكلاء ذكاء اصطناعي مجهزين بقدرات صوتية شبيهة ببرنامج ChatGPT-4، حيث قاموا بمحاكاة عمليات احتيال متعددة تشمل ملء نماذج بنكية والتعامل مع أكواد المصادقة الثنائية. ونجحت بعض هذه العمليات في تنفيذ الاحتيالات، حيث تراوحت نسبة النجاح بين 20% و60%، وحققت سرقة بيانات اعتماد حساب Gmail معدل نجاح بنسبة 60%. أما تحويلات العملات المشفرة وسرقة حسابات Instagram، فقد بلغت نسبة نجاحها حوالي 40%.
التكاليف المنخفضة لإجراء عمليات الاحتيال
أظهرت الدراسة أن تكاليف تنفيذ هذه العمليات منخفضة نسبيًا، حيث بلغت تكلفة الاحتيالات المصرفية حوالي 2.51 دولار، بينما لم تتجاوز تكلفة العمليات الأخرى 0.75 دولار. هذا يعكس خطورة الأمر؛ إذ يمكن للمحتالين تنفيذ عمليات احتيالية متعددة بتكاليف منخفضة، مما يزيد من فرص وقوع الأفراد ضحايا لهذه العمليات.
استجابة OpenAI وتعزيز الأمان
ردًا على هذه التحديات، صرحت OpenAI بأن فريقها يعمل باستمرار على تحسين الأمان لمنع المحاولات المتعمدة للاحتيال، دون التأثير على كفاءة ChatGPT وإبداعه. كما أكدت الشركة أن الطراز الجديد o1-preview يتميز بقدرة عالية على مقاومة المحاولات غير الآمنة مقارنة بالنماذج السابقة.