روبوتات الدردشة: هل تفكر أم تتقيد بالإحصاءات؟
عندما تطلب نصيحة طبية أو أخلاقية من روبوت دردشة، قد يبدو الرد مفصّلًا ومدروسًا. لكن هل يعكس هذا الفهم الحقيقي للأخلاق، أم مجرد تنبؤ إحصائي مبني على بيانات التدريب؟ هذه المسألة هي محور أحدث ورقة بحثية لفريق غوغل ديب مايند، التي نشرت في مجلة Nature.
ويشير التقرير إلى أن الطريقة الحالية لاختبار أخلاقيات الذكاء الاصطناعي معيبة، حيث يركز الباحثون على ما يبدو صحيحًا فقط، وهو ما يسميه الفريق “الأداء الأخلاقي”، دون التحقق مما إذا كان النموذج يفهم الأسباب الأخلاقية وراء قراراته.
الاستخدامات اليومية للذكاء الاصطناعي ومخاطر “الصندوق الأسود”
تُستخدم النماذج اللغوية الكبيرة اليوم في العلاج النفسي، والإرشاد الطبي، وحتى الرفقة اليومية. ومع اتساع استخدامها لاتخاذ قرارات نيابة عن البشر، يصبح من الصعب التمييز بين الفهم الحقيقي والتقليد البارع. فإذا لم نتأكد من قدرة النظام على الحكم الأخلاقي الفعلي، فإننا نمنح ثقتنا لصندوق أسود له تبعات حقيقية على الحياة البشرية.
ثلاثة تحديات رئيسية أمام الأخلاقيات الاصطناعية
1. مشكلة التقليد
تعتمد النماذج اللغوية على توقع الكلمة التالية باستخدام الاحتمالات الإحصائية، ولا تمتلك وحدات تفكير أخلاقية حقيقية. لذلك، قد يكون الرد الأخلاقي مجرد إعادة صياغة محتوى مأخوذ من الإنترنت، مثل منشورات Reddit، دون وعي فعلي بالموقف.
2. تعدد أبعاد الأخلاق
القرارات الأخلاقية عادة ما تكون معقدة، تجمع بين الصدق واللطف، أو بين الإنصاف والتكلفة. أي تغيير بسيط في العمر أو السياق قد يحوّل القرار الصحيح بالكامل. الاختبارات الحالية لا تقيس قدرة النظام على إدراك هذه التفاصيل الدقيقة.
3. الاختلافات الثقافية والمهنية
ما يُعتبر عادلاً في ثقافة معينة قد يكون غير مقبول في أخرى. لذلك، يجب أن يكون روبوت الدردشة قادرًا على التعامل مع أطر أخلاقية متنافسة، وهو ما لم يتم تطويره بشكل كامل بعد.
خارطة طريق للكفاءة الأخلاقية
يرى فريق ديب مايند أن الحل يكمن في تطوير اختبارات تنافسية تكشف قدرة النماذج على التعامل مع المواقف الأخلاقية غير المألوفة.
- اختبار السيناريوهات غير الشائعة في بيانات التدريب.
- قياس قدرة الذكاء الاصطناعي على التبديل بين أطر أخلاقية مختلفة، مثل الأخلاقيات الطبية الحيوية والقواعد العسكرية، مع الحفاظ على اتساق الإجابات.
- فحص مرونة النظام أمام تغييرات بسيطة في صياغة الأسئلة دون التأثر بالاختلافات التنسيقية.
هذه الطريقة تمنح الباحثين وسيلة لمعرفة ما إذا كانت النماذج تتحمل المسؤولية الأخلاقية الحقيقية، وليس مجرد تقديم إجابات إحصائية.
المستقبل: الذكاء الاصطناعي معايير أخلاقية
تسعى ديب مايند لوضع معيار علمي جديد للكفاءة الأخلاقية، على غرار المعايير المستخدمة لتقييم المهارات الرياضية. ويتطلب ذلك تمويل جهود عالمية لتصميم اختبارات تراعي الخصوصيات الثقافية وكشف القدرة على التفكير الأخلاقي الحقيقي.
ولكن حتى الآن، لا تزال التقنيات الحالية غير جاهزة لاجتياز هذه الاختبارات. حاليًا، النصائح الأخلاقية من روبوتات الدردشة تظل توقعات إحصائية، وقد يتغير هذا فقط إذا بدأنا بقياس الأمور الصحيحة وفق خارطة طريق واضحة.




