كشفت دراسة حديثة نشرتها شركة AWS أن 57% من المحتوى النصي على الإنترنت، يتم إنشاؤه بواسطة الذكاء الاصطناعي، وفق ما ذكره موقع betechwise الإلكتروني.
وأظهرت الدراسة أن معظم ما يُنشر على الويب هو “ترجمات تم إنشاؤها باستخدام تقنيات الترجمة الآلية”، والتي تعتمد على الذكاء الاصطناعي المتخصص في ترجمة النصوص.
واعتبرت الدراسة أن هذه الظاهرة ليست “مجرد مشكلة للمستخدمين والمبدعين فحسب”، بل تعيق أيضًا تدريب الذكاء الاصطناعي التوليدي، وتعتمد النماذج اللغوية الكبيرة على المحتوى البشري والخبراء لتقديم معلومات دقيقة، لكن تكرار النصوص من خلال الذكاء الاصطناعي والترجمات يؤثر سلبًا على أداء هذه النماذج.
اقرأ أيضا: مستثمرون: الحماس للذكاء الاصطناعي يعكس ضعف قطاع التكنولوجيا
وتوضح الدراسة أن الترجمات الحالية غالبًا ما تكون غير دقيقة بسبب الجودة الضعيفة للنصوص الأصلية، وهذا يعني أن المعلومات التي يتلقاها المستخدمون قد تكون غير صحيحة أو ذات جودة رديئة.
كما أن النماذج اللغوية الكبيرة قد “تعيد تدوير” المحتوى الذي أنتجه الذكاء الاصطناعي، مما يؤدي إلى تدريب الذكاء الاصطناعي على محتوى من إنتاج الذكاء الاصطناعي، وهو ما يشبه المخطط الهرمي.
وتشير الأبحاث إلى أن جودة استجابات الذكاء الاصطناعي تتناقص بمرور الوقت، لكن لحسن الحظ فإن من يستخدمون أدوات مثل ChatGPT وGemini وCopilot لأداء المهام البسيطة، قد لا يكون هذا الانخفاض في الجودة ملحوظًا على الفور.
اقرأ أيضا: أبل تكشف عن عائلة iPhone 16 المعززة بالذكاء الاصطناعي
ورغم ذلك مع بداية عام 2024، تم تسجيل حالات لظهور “كسل” في أداء ChatGPT، واشتكى بعض المستخدمين من انخفاض جودة الذكاء الاصطناعي التوليدي.
وتقترح دراسة AWS حلاً لهذه المشكلة يتمثل في استخدام تقنيات للكشف عن المواد التي يتم إنشاؤها بواسطة الترجمة الآلية، على عكس المترجمين التقليديين الذين يترجمون الكلمة تلو الأخرى، تستخدم هذه التقنيات الذكاء الاصطناعي لتقييم سياق النص بشكل أكثر دقة.