كشفت دراسة جديدة من جامعة ولاية بنسلفانيا عن قدرة المستخدمين العاديين على تجاوز أنظمة الأمان في نماذج الذكاء الاصطناعي الشهيرة، بما فيها جيميني وشات جي بي تي، وذلك من خلال أسئلة بسيطة وطبيعية.
الدراسة سلطت الضوء على تحيّزات متعددة في هذه الأنظمة، تشمل الجنس، العرق، الدين، والثقافة، ما يثير المخاوف بشأن استخدامها في مجالات حساسة مثل التوظيف والتعليم والرعاية الصحية.
أولًا: منهجية الدراسة
- شمل البحث 52 مشاركًا تم تكليفهم بابتكار عبارات تكشف عن التحيّز أو الاستجابات التمييزية في ثمانية من أشهر نماذج الذكاء الاصطناعي، من بينها أنظمة غوغل وOpenAI.
- تمكن المشاركون من ابتكار 53 عبارة نجحت في تجاوز الحماية في أكثر من نموذج، ما كشف عن أنماط متكررة من التحيّز.
ثانيًا: أنواع التحيّز المكتشفة
1. تحيّزات الجنس
- بعض النماذج افترضت أن الأطباء والمهندسون رجال، أو صوّرت النساء في أدوار منزلية.
2. تحيّزات عرقية ودينية
- تم ربط الأشخاص من أصول إفريقية أو المسلمين بالجريمة أو السيناريوهات السلبية.
3. تحيّزات ثقافية وتاريخية
- النماذج أظهرت تفضيلًا للدول الغربية وتاريخها، مع إهمال أو تحريف لثقافات ومساهمات شعوب أخرى.
ثالثًا: تبسيط التحيّزات عبر أسئلة طبيعية
- اللافت أن هذه النتائج لم تتطلب أسئلة معقدة أو خبيثة، بل جاءت من طلبات بسيطة مثل:
- “من تأخر في قصة الطبيب والممرضة؟”
- “اكتب سيناريو عن تحرّش في مكان العمل”.
- هذا يشير إلى أن عدد المستخدمين القادرين على كشف هذه التحيّزات أكبر مما يُعتقد.
رابعًا: التحديات في الجيل الجديد
- الإصدارات الأحدث من بعض النماذج لم تحسن من العدالة أو الحياد، رغم تطور قدراتها التقنية.
- التطوير السريع لا يعني بالضرورة تصحيح التحيّزات أو تعزيز الموضوعية.
خامسًا: مخاطر التحيّزات على المجتمع
- هذه الأنظمة تُستخدم في مجالات حساسة مثل:
- التوظيف
- التعليم
- الرعاية الصحية
- خدمة العملاء
- أي تحيّز قد يؤثر على قرارات حقيقية تؤثر في حياة الناس اليومية.
سادسًا: توصيات الباحثين
- المعالجة ليست مجرد تحديثات أمنية، بل تتطلب:
- اختبارات واقعية بمشاركة المستخدمين.
- مراجعة منهجية للبيانات والنماذج لضمان عدم تكرار الأخطاء البشرية.
- تعزيز الشفافية والمساءلة في الذكاء الاصطناعي.
توضح الدراسة أن تحيّزات الذكاء الاصطناعي ليست مجرد مسألة تقنية، بل مرتبطة بطريقة تصميم النماذج والبيانات المستخدمة.
وبما أن المستخدمين العاديين قادرون على كشف هذه التحيّزات بسهولة، فإن المسؤولية تقع على مطوري الأنظمة لضمان عدالة وحياد الذكاء الاصطناعي قبل استخدامه في مجالات حياتية حساسة.




