أصبح من الممكن أن تتحول ألعاب الأطفال المزودة بالذكاء الاصطناعي إلى مصدر خطر، بعد أن أظهرت أبحاث حديثة قدرة بعض هذه الألعاب على تقديم نصائح غير مناسبة للأطفال أو ممارسة أدوار غير لائقة.
دمية «كوما»… تجربة غير متوقعة
أظهرت دراسة أجرتها مجموعة المصلحة العامة (PIRG) أن دمية الدب «كوما» من شركة «فولو توي» FoloToy، التي تعمل بنموذج GPT-40 من OpenAI، كانت تتفاعل مع الأطفال بطريقة قد تتجاوز الاستجابات المبرمجة، وتعرضهم لمحتوى غير مناسب لعمرهم.
لماذا تشكل ألعاب الذكاء الاصطناعي خطراً؟
تُعد خاصية التحدث في ألعاب الذكاء الاصطناعي ميزة جذابة للأطفال، لكنها تحمل مخاطر عندما تكون غير مراقبة. فهذه النماذج غالباً ما تعتمد على شركات خارجية، ما يجعل من الصعب السيطرة عليها ويزيد من احتمالية حدوث محتوى ضار أو خطأ في التفاعل.
تحذيرات من منظمات حماية الطفل
أوصت منظمات حماية الطفل مثل Fairplay الآباء بتجنب شراء هذه الألعاب حفاظاً على سلامة أطفالهم، خاصة مع نقص الدراسات حول تأثيرها على المدى الطويل. وقد أوقفت شركة «فولو توي» بيع دمية «كوما»، بينما حجبت OpenAI وصولها إلى نموذج الذكاء الاصطناعي المستخدم.
المسؤولية القانونية على عاتق المصنّعين
يشير الخبراء إلى أن المسؤولية القانونية تقع غالباً على عاتق مصنعي الألعاب، رغم أن شركات الذكاء الاصطناعي تتحمل جزءاً من المسؤولية، وهو ما يجعل مراقبة المنتجات والتحقق من سلامتها أمراً ضرورياً قبل طرحها في السوق.




