أعلنت شركة جوجل عن إطلاقها لعائلة جديدة من نماذج الذكاء الاصطناعي تحت اسم “بيليجيما 2” (PaliGemma 2)، التي تتمتع بميزة جديدة تُثير الجدل: القدرة على تحديد المشاعر. النماذج الجديدة قادرة على تحليل صور الأشخاص وإنشاء تسميات توضيحية حول ما يحدث في الصورة، بما في ذلك الأفعال والمشاعر والسياق العام للمشهد.
مخاوف أخلاقية وتقنية
في حين أن التقنية تعد خطوة كبيرة في تطوير الذكاء الاصطناعي، إلا أن الخبراء أعربوا عن قلقهم من استخدامها. ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد، عبّرت عن انزعاجها من فكرة أن هذه التكنولوجيا يمكن أن تُستخدم لفهم مشاعر الأشخاص بشكل غير دقيق. وأكدت أن “من غير المنطقي الافتراض بأننا نستطيع قراءة مشاعر الناس من خلال صورهم فقط”.
وقد تم تطوير معظم تقنيات التعرف على المشاعر استنادًا إلى أعمال بول إكمان، عالم النفس الذي افترض أن البشر يتشاركون ستة مشاعر أساسية: الغضب، الدهشة، الاشمئزاز، الاستمتاع، الخوف، والحزن. ومع ذلك، أشارت الدراسات اللاحقة إلى وجود اختلافات كبيرة في التعبير عن المشاعر بين الأفراد والثقافات.
التحيز في تقنيات كشف المشاعر
أشارت أبحاث أخرى إلى أن أنظمة كشف المشاعر لا تكون دائمًا دقيقة أو غير متحيزة. دراسة أجريت في معهد ماساتشوستس للتكنولوجيا عام 2020 أظهرت أن النماذج التي تعتمد على تحليل الوجوه يمكن أن تنحاز نحو تعبيرات معينة مثل الابتسامة، مما يؤدي إلى نتائج غير دقيقة. كما أظهرت دراسات حديثة أن أنظمة تحليل الوجوه قد تكون أكثر ميلاً لتصنيف الوجوه السوداء بمشاعر سلبية مقارنة بالوجوه البيضاء.
جوجل وتقييم التحيزات
غوغل أكدت أنها أجرت اختبارات موسعة لنماذج “بيليجيما 2” لتقييم التحيزات الديمغرافية، ووجدت أن الأخطاء والشتائم كانت منخفضة مقارنة بالمعايير المهنية. رغم ذلك، لم تقدم الشركة تفاصيل كاملة عن المعايير أو أنواع الاختبارات التي أجرتها. المعايير الوحيدة التي كشفت عنها هي مجموعة صور “فير فيس” (FairFace) التي تمثل مجموعة محدودة من المجموعات العرقية.
أبحاث وخطر التمييز
تتواصل المخاوف بشأن تأثير تقنيات التعرف على المشاعر، خاصة في المجالات الحساسة مثل إنفاذ القانون أو التوظيف. وقالت هايدي خلف، عالمة الذكاء الاصطناعي في معهد “إيه آي ناو” (AI Now): “إن تفسير المشاعر مسألة شخصية للغاية ويعتمد بشكل كبير على السياق الثقافي والفردي. لا يمكننا تحديد المشاعر بناءً على ملامح الوجه فقط”.
التنظيمات القانونية
في إطار حماية الخصوصية وحقوق الأفراد، حظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي استخدام تقنيات كشف المشاعر في المدارس وأماكن العمل، على الرغم من السماح باستخدامها من قبل وكالات إنفاذ القانون.
ختامًا
رغم التقدم التقني الذي تحقق، فإن إطلاق “بيليجيما 2” يثير العديد من الأسئلة حول حدود استخدام الذكاء الاصطناعي في فهم المشاعر الإنسانية، ويعيد إلى الأذهان القضايا الأخلاقية المرتبطة بتقنيات يمكن أن تؤثر على حياة الأفراد بشكل غير مباشر.