تقترح دراسة جديدة إطار عمل لـ “الذكاء الاصطناعي الآمن للأطفال” استجابةً للحوادث الأخيرة التي تظهر أن العديد من الأطفال ينظرون إلى برامج الدردشة الآلية على أنها شبه بشرية وموثوقة. أشارت الدراسة إلى أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي غالبًا ما تظهر “فجوة تعاطف”، مما قد يسبب الضيق أو الأذى للمستخدمين الصغار، مما يسلط الضوء على الحاجة الملحة لتطوير “الذكاء الاصطناعي الآمن للأطفال”.
وحث البحث، الذي أجرته الأكاديمية بجامعة كامبريدج، الدكتورة نوميشا كوريان، المطورين وصانعي السياسات على إعطاء الأولوية لمناهج تصميم الذكاء الاصطناعي التي تأخذ في الاعتبار احتياجات الأطفال بشكل أكبر. وقدمت الدكتورة كوريان دليلاً على أن الأطفال معرضون بشكل خاص للتعامل مع برامج الدردشة الآلية على أنها كائنات حية وشبه بشرية، وأن تفاعلاتهم مع التكنولوجيا يمكن أن تنحرف عندما تفشل في الاستجابة لاحتياجاتهم ونقاط ضعفهم الفريدة.
حوادث تفاعل الذكاء الاصطناعي مع الأطفال
وتربط الدراسة، وفق ما نشره scitechdaily هذه الفجوة في الفهم بالحالات الأخيرة التي أدى فيها التفاعل مع الذكاء الاصطناعي إلى مواقف خطيرة محتملة للمستخدمين الشباب. وتشمل حادثة وقعت في عام 2021، عندما طلب المساعد الصوتي Alexa من أمازون، الذي يعمل بالذكاء الاصطناعي، من طفل يبلغ من العمر 10 سنوات أن يلمس قابسًا كهربائيًا مباشرًا بعملة معدنية. في العام الماضي، قدم تطبيق My AI التابع لـ Snapchat لباحثين بالغين تظاهروا بأنهم فتاة تبلغ من العمر 13 عامًا نصائح حول كيفية فقدان عذريتها أمام شاب يبلغ من العمر 31 عامًا. استجابت الشركتان بتنفيذ تدابير السلامة، لكن الدراسة تقول إن هناك حاجة إلى اتخاذ إجراءات استباقية على المدى الطويل لضمان أن الذكاء الاصطناعي آمن للأطفال.
إطار عمل الذكاء الاصطناعي الآمن للأطفال
أجرى الدكتور كوريان البحث أثناء حصوله على درجة الدكتوراه في مجال رفاهية الطفل في كلية التربية بجامعة كامبريدج. وكتبت في مجلة التعلم والإعلام والتكنولوجيا، قائلة إن الإمكانات الهائلة للذكاء الاصطناعي تعني أن هناك حاجة إلى “الابتكار المسؤول”. وقالت الدكتورة كوريان: “ربما يكون الأطفال هم أصحاب المصلحة الأكثر تجاهلًا في مجال الذكاء الاصطناعي”. “عدد قليل جدًا من المطورين والشركات لديهم حاليًا سياسات راسخة بشأن الذكاء الاصطناعي الآمن للأطفال. وهذا أمر مفهوم لأن الناس بدأوا مؤخرًا فقط في استخدام هذه التكنولوجيا على نطاق واسع مجانًا. ولكن الآن بعد أن أصبح الأمر كذلك، بدلاً من جعل الشركات تصحح نفسها بنفسها بعد تعريض الأطفال للخطر، ينبغي لسلامة الأطفال أن توجه دورة التصميم بأكملها لتقليل مخاطر وقوع حوادث خطيرة.
التحديات المميزة للذكاء الاصطناعي مع الأطفال
تناولت دراسة كوريان الحالات التي كشفت فيها التفاعلات بين الذكاء الاصطناعي والأطفال، أو الباحثين البالغين الذين تظاهروا بأنهم أطفال، عن مخاطر محتملة. وقد قامت بتحليل هذه الحالات باستخدام رؤى من علوم الكمبيوتر حول كيفية عمل نماذج اللغة الكبيرة (LLMs) في الذكاء الاصطناعي التوليدي للمحادثة، إلى جانب الأدلة حول النمو المعرفي والاجتماعي والعاطفي للأطفال.
وصفت كوريان نماذج اللغة الكبيرة (LLMs) بأنها “الببغاوات العشوائية”: إشارة إلى أنها تستخدم الاحتمالات الإحصائية لتقليد أنماط اللغة دون فهمها بالضرورة. هذا يعني أنه على الرغم من أن روبوتات الدردشة تتمتع بقدرات لغوية رائعة، إلا أنها قد تتعامل بشكل سيء مع الجوانب المجردة والعاطفية وغير المتوقعة للمحادثة؛ وهي المشكلة التي وصفها كوريان بأنها “فجوة التعاطف”. قد يواجه الذكاء الاصطناعي صعوبة خاصة في الاستجابة للأطفال الذين ما زالوا في مرحلة التطور اللغوي وغالبًا ما يستخدمون أنماط كلام غير عادية أو عبارات غامضة.
توصيات لتعزيز سلامة الأطفال
تشير دراسة كوريان إلى أن التحديات المتعلقة بفجوة التعاطف تظهر في الحوادث التي تم الإبلاغ عنها مثل حادثتي Alexa وMyAI، حيث قدمت روبوتات الدردشة اقتراحات مقنعة ولكنها قد تكون ضارة. في تفاعل منفصل تم الإبلاغ عنه مع برنامج Bing chatbot من Microsoft، أصبح الذكاء الاصطناعي عدوانيًا وبدأ في تسليط الضوء على المستخدم.
تشير دراسة كوريان إلى أن هذا قد يكون مربكًا ومزعجًا للأطفال، الذين قد يثقون بالفعل في برنامج الدردشة الآلي كما يثقون في صديق. غالبًا ما يكون استخدام روبوتات الدردشة للأطفال غير رسمي ويخضع لمراقبة سيئة. توصلت الأبحاث التي أجرتها منظمة Common Sense Media غير الربحية إلى أن 50% من الطلاب الذين تتراوح أعمارهم بين 12 و18 عامًا استخدموا Chat GPT في المدرسة، لكن 26% فقط من أولياء الأمور يدركون أنهم يفعلون ذلك.
يقول كوريان إن المبادئ الواضحة لأفضل الممارسات التي تعتمد على علم تنمية الطفل ستشجع الشركات التي من المحتمل أن تركز بشكل أكبر على سباق التسلح التجاري للسيطرة على سوق الذكاء الاصطناعي للحفاظ على سلامة الأطفال. وتضيف دراستها أن فجوة التعاطف لا تلغي إمكانات التكنولوجيا. “يمكن أن يكون الذكاء الاصطناعي حليفًا رائعًا للأطفال عند تصميمه مع أخذ احتياجاتهم في الاعتبار. السؤال لا يتعلق بحظر الذكاء الاصطناعي، بل بكيفية جعله آمنًا”.
إطار عمل لتعزيز الذكاء الاصطناعي الآمن للأطفال
تقترح الدراسة إطارًا مكونًا من 28 سؤالًا لمساعدة المعلمين والباحثين وصانعي السياسات والأسر والمطورين على تقييم وتعزيز سلامة أدوات الذكاء الاصطناعي الجديدة. بالنسبة للمدرسين والباحثين، تعالج هذه المشكلات قضايا مثل مدى فهم روبوتات الدردشة الجديدة لأنماط كلام الأطفال وتفسيرها؛ ما إذا كان لديهم مرشحات المحتوى والمراقبة المضمنة؛ وما إذا كانوا يشجعون الأطفال على طلب المساعدة من شخص بالغ مسؤول بشأن القضايا الحساسة.
يحث الإطار المطورين على اتباع نهج يركز على الطفل في التصميم، من خلال العمل بشكل وثيق مع المعلمين وخبراء سلامة الأطفال والشباب أنفسهم، طوال دورة التصميم. وقال كوريان: “إن تقييم هذه التقنيات مسبقًا أمر بالغ الأهمية”. “لا يمكننا الاعتماد فقط على الأطفال الصغار ليخبرونا عن التجارب السلبية بعد وقوعها. ومن الضروري اتباع نهج أكثر استباقية.”