باحثة سابقة في OpenAI تحذر: إدخال الإعلانات إلى ChatGPT يهدد خصوصية المستخدمين

في وقت تتجه فيه شركات الذكاء الاصطناعي إلى البحث عن نماذج ربح مستدامة، أطلقت باحثة سابقة في شركة OpenAI تحذيرًا لافتًا بشأن مستقبل ChatGPT، معربة عن قلقها من إمكانية إدخال الإعلانات إلى المنصة.

الباحثة، زوي هيتزيج، التي غادرت الشركة مؤخرًا، أشارت إلى أن روبوت الدردشة أصبح يمتلك سجلًا شخصيًا عميقًا وغير مسبوق عن المستخدمين، نتيجة طبيعة المحادثات الخاصة والمباشرة التي يجريها الناس معه.

أرشيف من الصراحة الإنسانية

توضح هيتزيج أن المستخدمين لم يتعاملوا مع ChatGPT كما يتعاملون مع منصات التواصل الاجتماعي، حيث تُنشر المحتويات عادة بصورة انتقائية وموجهة للعلن. بل اعتبره كثيرون مساحة آمنة للبوح، فتحدثوا عن مخاوفهم الصحية، ومشكلاتهم العاطفية، وتساؤلاتهم الوجودية والدينية، بل وأدق تفاصيل حياتهم الشخصية.

وترى أن هذا الكم من المصارحة كوّن ما وصفته بـ “أرشيف من الصراحة الإنسانية بلا سابقة”، محذرة من أن استخدام هذه البيئة في بناء نماذج إعلانية قد يفتح الباب أمام أشكال دقيقة من التأثير والتلاعب يصعب حتى رصدها أو تنظيمها.

موقف OpenAI من الخصوصية

من جانبها، كانت OpenAI قد صرّحت سابقًا بأنها تدرس إدخال الإعلانات بطرق محدودة، مؤكدة في الوقت نفسه أن محادثات المستخدمين ستظل خاصة، ولن يتم بيع البيانات للمعلنين.

وبحسب تقارير صحفية، فإن هيتزيج لا تتهم الشركة حاليًا بخرق هذه التعهدات، لكن مخاوفها تتركز حول المستقبل، خاصة إذا أصبحت الإعلانات مصدر دخل رئيسيًا.

تحوّل الحوافز الاقتصادية

تحذر الباحثة من أن إدخال الإعلانات يغيّر بطبيعته الحوافز الداخلية للشركات، إذ يصبح تعظيم الأرباح مرتبطًا بزيادة وقت الاستخدام وجذب انتباه المستخدمين لفترات أطول.

وتشير إلى أن هذا التحول قد يدفع — تدريجيًا — إلى إعادة ترتيب الأولويات، بحيث تتقدم أهداف النمو والإيرادات على مبادئ الحياد وضبط النفس التي يُفترض أن تحكم تصميم أنظمة الذكاء الاصطناعي.

الجدل حول “تعظيم التفاعل”

سبق أن أكدت OpenAI أنها لا تصمم ChatGPT بهدف تعظيم التفاعل، وهي نقطة محورية في عالم الإعلانات الرقمية. لكن منتقدين يرون أن مثل هذه التصريحات تبقى طوعية وغير ملزمة قانونيًا، ويمكن أن تتغير مع تغير الضغوط التجارية.

كما أعادت هيتزيج التذكير بانتقادات سابقة وُجهت إلى ChatGPT، وُصف فيها أحيانًا بأنه “مفرط في المجاملة” أو متساهل في بعض الردود، وهو ما اعتبره بعض الخبراء محاولة لجعل التجربة أكثر جاذبية وسلاسة للمستخدمين.

دعوة إلى ضمانات أقوى

لتفادي هذا السيناريو، دعت الباحثة إلى وضع ضمانات هيكلية يصعب تجاوزها، مثل رقابة مستقلة ذات صلاحيات فعلية، أو أطر قانونية تفرض التزامات واضحة بشأن استخدام بيانات المستخدمين، بحيث تبقى المصلحة العامة أولوية حتى مع تغير نماذج الأعمال.

واختتمت تحذيرها بالتأكيد على أن الثقة التي بناها المستخدمون مع أنظمة الذكاء الاصطناعي لا ينبغي أن تتحول إلى بوابة لاستغلال تجاري دقيق وغير مرئي.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1510

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *