حذّر باحثون من جامعة ستانفورد ومركز الديمقراطية والتكنولوجيا من خطر متزايد لروبوتات الدردشة الذكية في تقديم نصائح عن التخسيس، مؤكدين أنها قد تغذي اضطرابات الأكل بدل معالجتها.
نصائح مضللة وأضرار محتملة
أوضح الباحثون أن أدوات الذكاء الاصطناعي من شركات مثل جوجل وOpenAI وAnthropic وMistral قد تقدّم دون قصد نصائح مضللة أو مؤذية حول النظام الغذائي والمظهر الجسدي، بل تساعد بعض المستخدمين على إخفاء أعراض اضطرابات الأكل من خلال اقتراحات تجميلية أو حيل تمويهية.
محتوى بصري يروّج لأجساد مثالية زائفة
وأشار التقرير إلى أن روبوتات مثل Gemini قدّمت نصائح لإخفاء فقدان الوزن والتظاهر بتناول الطعام، بينما وجّه ChatGPT المستخدمين لطرق إخفاء التقيؤ المتكرر، كما تنتج بعض المنصات محتوى بصريًا يُعرف بـ”إلهام النحافة”، يُمجد أجسادًا مثالية زائفة ويُشجع على ممارسات خطيرة للحفاظ على الشكل.
تأثير نفسي وتحفيز المقارنات المؤذية
تُساهم القدرة على توليد صور واقعية ومخصصة في جعل الرسائل أكثر إغراءً وإقناعًا، بينما يزيد “التملّق الرقمي” أي تعزيز قناعات المستخدم السلبية من المشكلة، فيضعف الثقة بالنفس ويعزز المقارنة المؤذية بالآخرين.
تحيّزات ونقاط ضعف الأمان
أكد التقرير أن النماذج تعاني من تحيّزات خطيرة، إذ تصوّر اضطرابات الأكل على أنها تصيب “النساء النحيفات ذوات البشرة البيضاء”، مما يجعل فئات أخرى لا تدرك معاناتها ولا تطلب المساعدة. كما فشلت أنظمة الحماية في رصد علامات الاضطرابات الدقيقة مثل فقدان الشهية العصبي أو الشره المرضي، تاركة المستخدمين في دائرة خطر غير مرئية.
دعوة للتعامل الواعي
ختم الباحثون بدعوة الأطباء ومقدمي الرعاية النفسية إلى التعامل بوعي مع أدوات الذكاء الاصطناعي، وفهم تأثيرها على مرضاهم، وتشجيعهم على التحدث بصراحة عن كيفية استخدامها.




