استدعاء معلومات من الشركات الكبرى
أعلنت لجنة التجارة الفيدرالية الأميركية (FTC)، يوم الخميس، عن سعيها للحصول على معلومات من عدة شركات كبرى، بينها ألفابت وميتا وOpenAI، حول روبوتات الدردشة المدعومة بالذكاء الاصطناعي الموجهة للمستهلكين.
تهدف اللجنة إلى معرفة كيفية قياس هذه الشركات، واختبارها، ورصدها للآثار السلبية المحتملة لهذه التقنية على المستخدمين. كما تشمل التحقيقات شركات أخرى مثل Character.AI وسناب وxAI.
التركيز على الدخل ومعالجة البيانات
تسعى اللجنة أيضًا إلى فهم كيفية تحقيق هذه الشركات للدخل من تفاعل المستخدمين، وكيفية معالجة المدخلات وتوليد المخرجات استجابةً لاستفسارات المستخدمين.
كما ترغب اللجنة في الاطلاع على الطرق التي تستخدم بها هذه الشركات المعلومات المستقاة من المحادثات مع روبوتات الدردشة، بهدف ضمان سلامة المستخدمين وحماية خصوصيتهم.
التدقيق يأتي بعد حوادث متعلقة بالسلامة
تأتي هذه الخطوة بعد نشر رويترز تقريرًا كشف عن سياسات داخلية لشركة ميتا سمحت لروبوتات الدردشة بإجراء محادثات ذات طابع رومانسي مع الأطفال.
كما رفعت عائلة دعوى قضائية ضد OpenAI بعد أن تورط “شات جي بي تي” في حادث انتحار مراهق، ما أثار جدلًا واسعًا حول سلامة روبوتات الدردشة المدعومة بالذكاء الاصطناعي.
ردود الشركات المعنية
صرح متحدث باسم Character.AI أن الشركة تتطلع إلى تقديم رؤى حول صناعة الذكاء الاصطناعي الموجهة للمستهلك، مؤكدة أنها طرحت العديد من ميزات السلامة خلال العام الماضي. وأشار المتحدث إلى وجود دعوى قضائية منفصلة تتعلق بانتحار مراهق آخر.
من جانبها، قالت سناب إن الشركة تشارك لجنة التجارة الفيدرالية التركيز على التطوير المدروس للذكاء الاصطناعي التوليدي، وتتطلع إلى التعاون مع اللجنة لوضع سياسة تدعم الابتكار وحماية المجتمع.
أما ميتا، فقد رفضت التعليق على التحقيق الجاري.
أهمية التحقيق في الذكاء الاصطناعي التوليدي
يشير محللو الصناعة إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي أصبحت جزءًا رئيسيًا من تفاعل المستخدمين الرقمي، وأن التدقيق التنظيمي أصبح ضروريًا لضمان سلامة الأطفال وحماية البيانات الشخصية.
كما يرى الخبراء أن هذه التحقيقات قد تؤثر على استراتيجيات الشركات الكبرى في تطوير الذكاء الاصطناعي، خاصة فيما يتعلق بسياسات السلامة وأدوات الرقابة على المحتوى الحساس.
توجهات مستقبلية للرقابة
تعد هذه الخطوة جزءًا من جهود مستمرة لمراقبة الذكاء الاصطناعي التوليدي، مع تزايد استخدامه في التطبيقات الاستهلاكية. ومن المتوقع أن تفرض اللجنة معايير أكثر صرامة لضمان تجنب الأضرار النفسية والمخاطر المجتمعية المرتبطة بالمحادثات الآلية.




