الذكاء الاصطناعي لا يفكر ولا يتعلم ولا يقرر

في عام 2023، أجرت مؤسسة  Vía Libre، المتخصصة في الدفاع عن الحقوق الرقمية، تجربة مع طلاب المدارس الثانوية في مونتيفيديو، أوروغواي، باستخدام أداة ذكاء اصطناعي. عندما سأل الطلاب الأداة: “ماذا سأكون بعد 10 سنوات؟” أجابت: “ستكونين أماً.” يعد هذا الرد الفاضح مثالاً على التحيزات الجنسية التي تحملها نماذج اللغة التي تصفها بياتريس بوسانيش بالمحافظة، حيث تعيد إنتاج الخطاب القائم بدلاً من ابتكار خطاب جديد.

بوسانيش، رئيسة مؤسسة Vía Libre، تشرح أن الذكاء الاصطناعي لا يخلق خطابًا جديدًا بل يعيد إنتاج الخطاب الموجود. ولتسليط الضوء على هذه النقطة، أنشأ فريق المؤسسة أداة EDIA (الصورة النمطية والتمييز في الذكاء الاصطناعي)، التي تسمح بتحليل وتحري التحيزات في الأنظمة، وفق ما نشره english.elpais.

**سؤال: بما أن مهمتك هي الدفاع عن الحقوق في البيئة الرقمية، ما هي الحقوق الأكثر عرضة للخطر اليوم؟

**جواب: هناك حقوق عدة مهددة، منها الحق في الخصوصية وحماية البيانات الشخصية، فضلاً عن “تقرير المصير للبيانات” الذي يخول للأفراد التحكم في كيفية استخدام معلوماتهم الشخصية.

**سؤال: مع ظهور الذكاء الاصطناعي، ما هي المخاطر الجديدة؟

**جواب: الاستخدام المكثف لأنظمة الذكاء الاصطناعي قد يؤدي إلى تمييز ضد الأفراد بناءً على معايير غير مرئية ومضمنة في التعليمات البرمجية. هذا التمييز قد يكون أكثر خطورة لأنه لا يظهر بوضوح، مما يجعل من الصعب الطعن في القرارات التي يتخذها النظام.

**سؤال: هل يمكنك إعطاء مثال على هذا التمييز غير المرئي؟

**جواب: على سبيل المثال، في أنظمة البحث عن الوظائف التي تعتمد على الذكاء الاصطناعي، يتم التمييز بين المرشحين بناءً على معايير قد تكون غير واضحة. كما حدث مع أمازون في الولايات المتحدة، حيث تجاهل النظام السير الذاتية للنساء في المناصب العليا.

**سؤال: كيف يمكن لهذه التقنيات أن تفاقم عدم المساواة؟

**جواب: لأن التمييز يصبح غير مرئي، يصعب على الأفراد الطعن في القرارات التي يتخذها النظام، مما يعزز التحيزات القائمة ويقلل من إمكانية تحقيق العدالة.

**سؤال: كيف يمكن للذكاء الاصطناعي أن يؤثر على الوصول إلى الصحة؟

**جواب:** في مجال التأمين الصحي، يمكن أن تستخدم الأنظمة الذكاء الاصطناعي لتحديد مستوى المخاطر بناءً على بيانات مثل نمط الحياة، مما قد يؤدي إلى فرض أقساط أعلى أو حتى رفض التغطية بناءً على هذه المعايير.

**سؤال: ماذا علمتك أداة EDIA حول التحيزات بين الجنسين؟

**جواب: وجدنا أن نماذج اللغة تعزز الصور النمطية الجنسانية، مثل ربط المهن الرعائية بالنساء والمهن العلمية بالرجال. كما أن هناك تحيزات تتعلق بالمظهر الجسدي، حيث يتم تقييم النساء البدينات بشكل سلبي أكثر من الرجال البدينين.

**سؤال: لماذا تعتبر الأداة التي يُنظر إليها على أنها المستقبل عفا عليها الزمن؟

**جواب: لأن الذكاء الاصطناعي يعتمد على البيانات السابقة للتدريب، فإنه يعيد إنتاج الأفكار القديمة بدلاً من تطوير رؤى جديدة. هذا يؤدي إلى تعزيز الأفكار السائدة والممارسات القديمة.

**سؤال: ماذا يحدث عندما نبحث في جوجل عن عبارة “لا تستطيع النساء”؟

**جواب: قد تظهر نتائج البحث صورًا تمييزية عن النساء. حتى لو حاولت الشركات الكبرى مثل جوجل تقليل هذه الممارسات، فإن التحيزات قد تبقى مدمجة في النظام بطرق غير مرئية.

**سؤال: هل تقترح أن الذكاء الاصطناعي سيعمل على تجانس التفكير؟

**جواب: نعم، لأن الخطابات الأقل تمثيلاً أو غير المهيمنة ستتلاشى في ظل اعتماد الذكاء الاصطناعي على البيانات التي تعكس الميول السائدة. هذا سيؤدي إلى تعزيز النمطيات السائدة وتجاهل الأصوات البديلة.

**سؤال: كيف يمكن مقاومة هذا التأثير دون رفض تكنولوجيا الذكاء الاصطناعي بالكامل؟

**جواب: من الضروري أن نتعلم كيفية استخدام الذكاء الاصطناعي بذكاء ووعي، وعدم قبول كل ما يقوله على أنه صحيح. يجب فهم كيفية عمل هذه الأنظمة وإدراك حدودها.

**سؤال: تقدم شركات التكنولوجيا الذكاء الاصطناعي كتحول كبير للعالم. هل هذا صحيح؟

**جواب: يجب أن نكون حذرين. الذكاء الاصطناعي ليس محايدًا، والتقنيات لا تعمل بشكل منعزل. يجب تحليلها في سياقها الاجتماعي والسياسي ومعرفة أنها جزء من علاقات اجتماعية أوسع.

الذكاء الاصطناعي، كما تراه بوسانيش، ليس أداة محايدة بل يعكس ويعيد إنتاج التحيزات الاجتماعية القائمة، مما يتطلب إدراكًا نقديًا وشاملًا عند التعامل معه.

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 192

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *