فجّرت مقاطع الفيديو المنتجة عبر تطبيق “سورا 2” من OpenAI موجة جدل واسعة، بعد انتشار محتوى مسيء وعنصري وتنمّر على المظهر والوزن، ما أعاد فتح ملف أخلاقيات الذكاء الاصطناعي وحدود استخدامه.
القصة بدأت مع تصريحات إيجابية من المدير التنفيذي لـ“نتفليكس” تيد ساراندوس الذي أشاد بدور الذكاء الاصطناعي في تطوير صناعة المحتوى، إلا أن الواقع كشف استخداماً مشوّهاً للأداة تحول إلى سيل من الفيديوهات الساخرة القاسية عبر مواقع التواصل، وفق تقرير لموقع digitaltrends نقلته “العربية Business”.
مقاطع مسيئة تنتشر بالملايين وتشوّه الواقع
ظهرت عشرات الفيديوهات المصنوعة بالكامل عبر “سورا 2”، من بينها:
- مقطع لامرأة بدينة يقفز بها الجسر أثناء تمرين رياضي، تجاوز حاجز مليون مشاهدة.
- فيديو لامرأة سمراء تسقط عبر أرضية مطعم، في مشهد يمزج بين العنصرية والتنمر على الوزن.
- لقطات لسائقي توصيل ينهار بهم المدخل أو أشخاص “ينتفخون” بعد تناول الطعام.
المقلق أن كثيراً من المشاهدين ظنوا أن المقاطع حقيقية بسبب جودة سورا 2 التي تجعل التمييز بين الواقع والاصطناع شبه مستحيل.
أزمة أخلاقية تكشف هشاشة ضوابط شركات الذكاء الاصطناعي
يرى خبراء أن المشكلة تتجاوز حدود الذوق السيئ، إذ أصبحت أدوات الذكاء الاصطناعي تمكّن أي شخص من إنتاج محتوى مسيء في ثوانٍ وبجودة سينمائية.
وهذا يعني:
- تضاؤل دور الضوابط التي تزعم الشركات أنها وضعتها.
- انتشار محتوى عنصري وساخر على نطاق واسع دون رقابة.
- إمكانية استغلال الأدوات للإساءة والتشهير بشكل مجهول وسريع.
ويعتبر متخصصون أن ما يحدث يكشف فشل آليات الأمان التي كان يفترض أن تمنع نشر هذا النوع من المحتوى.
لماذا يجب أن نأخذ هذه الأزمة بجدية؟
لا يتعلق الأمر بمقاطع ترفيهية فقط، بل بواقع أخطر:
- ملايين المشاهدين، بينهم أطفال، قد يصدقون أن ما يرونه حقيقي.
- المحتوى التنمّري يتحول إلى “ترند”، ما يدفع آخرين إلى تقليده بحثاً عن الشهرة.
- تزايد التأثير السلبي على صورة فئات عرقية وأصحاب الأوزان المختلفة.
- مخاطر نفسية على من يتعرض للتنمر الرقمي.
حتى اللحظة، OpenAI لم تصدر أي تعليق رسمي حول المشكلة، مما أثار تساؤلات حول الجهة المسؤولة عندما تتحول الأدوات المتقدمة إلى وسيلة لإيذاء الآخرين.
تنظيمات مرتقبة وحدود لا بد منها
يتوقع محللون أن تتدخل الجهات التنظيمية قريباً لفرض قيود أكثر صرامة على أدوات الذكاء الاصطناعي، خاصة مع التوسع الهائل في قدراتها، وإمكانية استخدامها لإنتاج محتوى خطير بضغطة زر.




