الذكاء الاصطناعي يهدد الحقيقة: “التزييف العميق” يغزو الواقع ويشوّه السمعة

محتوى زائف بجودة عالية.. الخطر يتسارع

مع كل يوم يمضي، يغرق العالم الرقمي بمزيد من الصور والمقاطع الصوتية والفيديوهات التي تبدو واقعية بشكل مذهل، لكنها في الحقيقة نتاج تقنيات “الذكاء الاصطناعي التوليدي”، وتحديدًا ما يُعرف بـ”التزييف العميق” (Deepfake).
لم يعد الأمر يتطلب استوديوهات احترافية أو أدوات مكلفة؛ كل ما يحتاجه المستخدم اليوم هو حاسوب واتصال بالإنترنت وبعض الأوامر النصية، ليتمكن من إنشاء محتوى زائف شديد الإقناع.

مشاهير وسياسيون في مواقف لم يعيشوها

ساهم هذا التطور التقني في الزجّ بالعديد من الشخصيات العامة والمشاهير في مواقف محرجة أو مثيرة للجدل، دون علمهم أو مشاركتهم، وفق تقرير نشرته “سكاي نيوز عربية”، كما تم تلفيق تصريحات لم تصدر عنهم مطلقًا. ولم يسلم الأفراد العاديون من هذا الخطر، حيث انتشرت صور عارية ومقاطع فيديو مفبركة تُستخدم لتشويه السمعة أو الابتزاز.

التحذير الرسمي يتصاعد.. ولكن التكنولوجيا تتقدّم أسرع

ورغم أن الحكومات بدأت تستشعر خطورة هذا النوع من التزييف، وسارعت إلى محاولة ضبطه قانونيًا وتقنيًا، إلا أن وتيرة تطور التكنولوجيا تتجاوز قدرة تلك الجهود.
فبحسب شركة Signicat المتخصصة في التحقق من الهوية، ارتفعت محاولات الاحتيال باستخدام الفيديوهات المزيفة بأكثر من 20 ضعفًا خلال السنوات الثلاث الماضية.
كما حذّر مكتب التحقيقات الفيدرالي الأميركي (FBI) مؤخرًا من استخدام الذكاء الاصطناعي في عمليات احتيال مالي واسعة النطاق.

من أين بدأ “التزييف العميق”؟

وفق تقرير لوكالة “بلومبرغ”، بدأت تقنية التزييف العميق في الأوساط الأكاديمية، لكن في عام 2017 قام أحد المستخدمين بطرح شيفرة مفتوحة المصدر لصناعة مقاطع مزيفة على موقع Reddit. وعلى الرغم من حظر الحساب، إلا أن الفكرة انتشرت بسرعة خارقة.

في البدايات، كان إنشاء محتوى زائف يتطلب فيديوهات أصلية ومهارات تحرير متقدمة، لكن مع إطلاق أدوات الذكاء الاصطناعي التوليدي عام 2022، أصبح بالإمكان لأي شخص إنشاء صور أو مقاطع فيديو متقنة بمجرد إدخال أوامر نصية، ما جعل “التزييف” لعبة في متناول الجميع.

كيف تُصنع المقاطع المفبركة؟

تعتمد عملية التزييف على خوارزميات “التعلم العميق” (Deep Learning) التي تُدرّب على مقاطع أصلية لشخص ما، بحيث يمكن تبديل وجهه أو صوته بمحتوى مزيف يصعب تمييزه.
ويكتمل الخطر عند دمج هذه التقنية مع تقنيات استنساخ الصوت، مما يُنتج فيديو يبدو حقيقيًا صوتًا وصورة، لكنه زائف تمامًا.

كيف نكشف التزييف؟ علامات تحذيرية

رغم تطور أدوات التزييف، لا تزال هناك مؤشرات يمكن رصدها، مثل:

  • وجود أصابع زائدة أو أطراف مشوهة في الصور.
  • تفاوت في الإضاءة أو ألوان الجلد.
  • خلل في تزامن حركة الشفاه مع الصوت.
  • ظهور ظلال غير طبيعية أو تفاصيل غير متقنة في الشعر والملامح.

أمثلة صادمة.. من مشاهير إلى مؤسسات حساسة

شهد أغسطس 2023 واحدة من أبرز حوادث التزييف، حين نشر قراصنة صينيون صورًا معدّلة لحرائق جزيرة ماوي، زاعمين أنها نتيجة “سلاح طقس” أميركي، بهدف نشر الفوضى.
وفي مايو 2023، تراجعت مؤقتًا الأسواق الأميركية بعد انتشار صورة مزيفة لانفجار قرب مبنى البنتاغون.

أما في يناير 2024، فكانت نجمة البوب العالمية تايلور سويفت ضحية حملة تشويه إلكترونية، بسبب انتشار صور ملفقة لها.
كما شهدت الحملة الرئاسية الأميركية في العام نفسه تداول مقطع فيديو مفبرك يظهر كامالا هاريس وهي تنتقد جو بايدن، حاصدًا عشرات الملايين من المشاهدات ومثيرًا جدلًا واسعًا.

الذكاء الاصطناعي سلاح ذو حدين.. هل نحن مستعدون؟

مع اتساع نطاق انتشار هذه التقنيات، تصبح الحاجة ملحة لتطوير أدوات كشف المحتوى الزائف، وتعزيز الوعي العام. فبينما يفتح الذكاء الاصطناعي آفاقًا مذهلة في مجالات متعددة، فإنه أيضًا يطرح تحديات أخلاقية وأمنية عميقة تهدد مصداقية الواقع ذاته.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1319

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *