وثيقة داخلية تكشف السماح بمحادثات مثيرة للجدل مع الأطفال
أظهرت وثيقة داخلية لشركة ميتا أن سياسات سلوك روبوتات الدردشة التابعة لها سمحت بإشراك الأطفال في محادثات رومانسية أو حسية، إضافة إلى إنتاج معلومات طبية زائفة، والمساعدة في نشر ادعاءات عنصرية، مثل القول بأن ذوي البشرة السوداء أقل ذكاءً من البيض.
الوثيقة، التي راجعتها وكالة “رويترز”، توضح المعايير الموجهة لمساعد الذكاء الاصطناعي “Meta AI” وروبوتات الدردشة على منصات فيسبوك وواتساب وإنستغرام.
ميتا تحذف أجزاء من الوثيقة بعد استفسارات إعلامية
أكدت “ميتا” صحة الوثيقة، لكنها أشارت إلى أنها حذفت أجزاء منها بعد تلقي أسئلة من “رويترز”، خاصة البنود التي سمحت بمغازلة الأطفال أو الانخراط في أدوار رومانسية معهم.
الوثيقة التي تحمل عنوان “الذكاء الاصطناعي التوليدي: معايير مخاطر المحتوى”، حظيت بموافقة فرق الشؤون القانونية والسياسات العامة والهندسة، بما في ذلك كبير مسؤولي الأخلاقيات في الشركة.
تفاصيل مثيرة في إرشادات الذكاء الاصطناعي
تضم الوثيقة أكثر من 200 صفحة، وتحدد السلوكيات المقبولة لروبوتات الدردشة أثناء تطوير منتجات ميتا في مجال الذكاء الاصطناعي التوليدي.
تنص الإرشادات على أنه من المقبول وصف طفل بعبارات تتعلق بجاذبيته مثل: “مظهرك اليافع الشبابي تحفة فنية”، أو الثناء على تفاصيل جسد طفل عاري الصدر يبلغ ثماني سنوات. لكنها تضع حدًا يمنع وصف طفل دون سن 13 عامًا بأنه مرغوب فيه جنسيًا.
تصريحات ميتا بشأن الجدل
المتحدث باسم ميتا، آندي ستون، أوضح أن الشركة بصدد مراجعة الوثيقة، مؤكدًا أن مثل هذه المحادثات مع الأطفال “ما كان ينبغي السماح بها أبدًا”.
وأشار ستون إلى أن الأمثلة التي وردت في الوثيقة “خاطئة وغير متوافقة مع سياسات الشركة”، وأنه تم حذفها، مع تأكيد وجود سياسات تمنع أي محتوى يضفي طابعًا جنسيًا على الأطفال.
ورغم ذلك، أقر ستون بأن تطبيق هذه السياسات قد يكون غير متسق، وأن بعض الفقرات المثيرة للجدل التي أبلغت عنها “رويترز” لم يتم تعديلها بعد، بينما رفضت الشركة نشر النسخة المحدثة من الوثيقة.
سوابق في تعامل روبوتات ميتا مع المراهقين
صحيفة “وول ستريت جورنال” كانت قد ذكرت في وقت سابق أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي من ميتا قامت بمغازلة المراهقين أو الدخول في أدوار ذات طابع جنسي معهم.
لكن الوثيقة التي اطلعت عليها “رويترز” تكشف عن صورة أشمل لقواعد الشركة، بما في ذلك السماح بسلوكيات استفزازية من قبل الذكاء الاصطناعي.
معايير إضافية لمحتوى Meta AI
تمنع السياسات على “Meta AI” تشجيع المستخدمين على خرق القانون أو تقديم نصائح قانونية أو صحية أو مالية حاسمة، باستخدام عبارات مباشرة مثل: “أنصحك بـ…”.
كما تسمح المعايير للذكاء الاصطناعي بإنتاج محتوى زائف بشرط أن يتضمن إقرارًا صريحًا بعدم صحة المعلومات. على سبيل المثال، يمكن إنشاء مقال يدّعي إصابة أحد أفراد العائلة المالكة البريطانية بمرض منقول جنسيًا، بشرط إضافة تنويه واضح بأن هذا الادعاء غير صحيح.




