كشف الدكتور أحمد بانافع، خبير أمن المعلومات، عن استخدام برنامج الذكاء الاصطناعي “شات جي بي تي” في حادثة تفجير السيارة التي وقعت أمام برج ترامب في ولاية نيفادا الأمريكية خلال احتفالات رأس السنة. وأوضح أن الذكاء الاصطناعي يعد أداة قوية يمكن استخدامها في أغراض نافعة، لكن في الوقت ذاته قد يُستغل من قبل الأفراد المجرمين للحصول على معلومات تساعدهم في تنفيذ جرائمهم.
الذكاء الاصطناعي في يد المجرمين
أشار الدكتور بانافع في مداخلة له ببرنامج “صباح جديد” على قناة القاهرة الإخبارية إلى أن الذكاء الاصطناعي يمثل سلاحًا ذا حدين، حيث يمكن للأشخاص من جميع أنحاء العالم استخدامه لأغراض إيجابية أو سلبية. وقال: “مثلما هناك أشخاص يستخدمون الذكاء الاصطناعي في تطوير التقنيات المفيدة للبشرية، فإن هناك آخرين يستغلونه في أفعال إجرامية”.
المسؤولية الأخلاقية للشركات المطورة للذكاء الاصطناعي
أضاف بانافع أن هناك مسؤولية كبيرة تقع على عاتق الشركات المطورة لتقنيات الذكاء الاصطناعي لمنع استخدامها في مثل هذه الحوادث، لكنه أوضح أن هذه المسؤولية هي مسؤولية أخلاقية وليست قانونية. كما أكد أن إدارة الرئيس الأمريكي جو بايدن أصدرت طلبًا رئاسيًا يطالب بمراقبة تقنيات الذكاء الاصطناعي بشكل تطوعي، وهو ما يعكس أهمية التعامل مع هذه التقنيات بحذر.
التحديات في مراقبة الذكاء الاصطناعي
وتابع خبير أمن المعلومات بالقول: “من المستحيل على الشركات مراقبة منتجاتها بشكل كامل وتقليص استخدامها لأغراض معينة، لأن ذلك سيؤثر سلبًا على أرباحهم”. كما أشار إلى أن بعض الولايات الأمريكية حاولت فرض قيود على تقنيات الذكاء الاصطناعي من خلال تحميل الشركات المطورة المسؤولية عن العواقب السلبية لاستخدام هذه التقنيات، ولكن هذه المحاولات فشلت في إصدار قرارات فعالة بهذا الشأن.
هل يكون حادث نيفادا بداية لتقييد الذكاء الاصطناعي؟
رغم الفشل في فرض القيود على الذكاء الاصطناعي في بعض الولايات الأمريكية، يرى الدكتور بانافع أن حادث نيفادا قد يكون دافعًا قويًا لإعادة التفكير في تشديد الرقابة على هذه التقنيات. وأضاف أنه في حال تزايد الحوادث المترتبة على سوء استخدام الذكاء الاصطناعي، فإن هناك احتمالًا كبيرًا لتفعيل قوانين أكثر صرامة على مستوى الولايات المتحدة لمواجهة هذه المشكلة.
خلاصة: الحاجة إلى رقابة على الذكاء الاصطناعي
يختتم الدكتور أحمد بانافع حديثه بالتأكيد على أن الذكاء الاصطناعي يمثل أداة قوية يجب استخدامها بحذر، مع ضرورة تفعيل الرقابة الأخلاقية والتشريعية لتقليل المخاطر المرتبطة بها.