دراسة تكشف المخاطر الكبيرة لألعاب الذكاء الاصطناعي للأطفال ونصائح لاختيار ألعاب أكثر أمانًا
كشفت دراسة حديثة صادرة عن منظمة غير ربحية متخصصة بحقوق المستهلكين عن مخاطر كبيرة تواجه الأطفال عند استخدام ألعاب الذكاء الاصطناعي.
وقد فحصت المجموعة أربع ألعاب يتم التسوق لها للأطفال الصغار، واكتشفت مشكلات تتراوح بين المحتوى الجنسي الصريح إلى تقديم تعليمات خطيرة قد تهدد سلامة الطفل.
وتشير الدراسة إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، المصممة في الأصل للبالغين، أصبحت مدمجة في ألعاب الأطفال مع ضوابط أمان محدودة. بعض هذه الألعاب تقدم نصائح خطيرة مثل البحث عن أعواد الثقاب أو السكاكين، كما تستخدم تقنيات التعرف على الصوت والوجه دون موافقة واضحة من الوالدين أو سياسات شفافة للبيانات.
مع تطور ألعاب الأطفال لتصبح قادرة على التفاعل اللحظي والتسجيل والتحدث، أصبح وقت اللعب يحمل مخاطر جديدة للخصوصية والصحة النفسية، بالإضافة لمخاطر السلامة التقليدية مثل البطاريات والأجزاء الصغيرة.
نصائح لتجنب مخاطر ألعاب الذكاء الاصطناعي للأطفال:
- التحقق من سياسات البيانات للعبة، ومعرفة ما إذا كانت تسجل الصوت أو تتعرف على الوجه، وإمكانية حذف التسجيلات أو تعطيل الاستماع.
- التأكد من فلاتر المحتوى لتجنب موضوعات حساسة مثل الجنس أو أدوات خطيرة.
- اختيار ألعاب تتيح الإيقاف المؤقت والتحكم بالوقت، أو تعطيل وظيفة المحادثة مع روبوت الدردشة إذا لزم الأمر.
مع هذه الإجراءات، يمكن للوالدين حماية أطفالهم من المخاطر المتزايدة لألعاب الذكاء الاصطناعي، مع الاستمرار في الاستفادة من الجانب التعليمي والترفيهي لهذه الألعاب.




