رغم التطور الكبير في تقنيات الذكاء الاصطناعي، ما تزال كثير من أنظمة التعلم الآلي تعمل بطريقة توصف بـ«الصندوق الأسود»، إذ تقدم تنبؤات دقيقة دون توضيح الأسباب التي تقود إلى هذه النتائج. وفي محاولة لمعالجة هذه المشكلة، يعمل باحثون في Massachusetts Institute of Technology على تطوير طرق جديدة تمكّن أنظمة الذكاء الاصطناعي من شرح قراراتها بشكل واضح للبشر.
ويهدف هذا التوجه إلى جعل نماذج التعلم الآلي أكثر شفافية ومصداقية، بحيث لا تكتفي بتقديم نتائج دقيقة فحسب، بل تتيح أيضاً فهم المنطق الذي استندت إليه في اتخاذ القرار.
لماذا يحتاج الذكاء الاصطناعي إلى تفسير قراراته؟
تزداد أهمية تفسير قرارات الأنظمة الذكية مع توسع استخدامها في مجالات حساسة مثل الرعاية الصحية والنقل والبحث العلمي. ففي هذه القطاعات، يحتاج المستخدمون إلى معرفة العوامل التي أدت إلى نتيجة معينة قبل الاعتماد عليها.
فعلى سبيل المثال، قد يرغب الطبيب في معرفة المؤشرات التي دفعت نظام الذكاء الاصطناعي لتشخيص مرض معين، كما يحتاج مهندسو السيارات ذاتية القيادة إلى فهم الإشارات التي جعلت النظام يتعرف إلى وجود مشاة أو يفسر موقفاً مرورياً.
غير أن كثيراً من نماذج التعلم العميق تعتمد على شبكات رياضية معقدة تضم آلاف أو ملايين المتغيرات، ما يجعل تفسير قراراتها أمراً صعباً حتى على المطورين أنفسهم.
الذكاء الاصطناعي القابل للتفسير
لهذا السبب ظهر مجال بحثي يعرف باسم الذكاء الاصطناعي القابل للتفسير (Explainable AI)، ويهدف إلى تطوير تقنيات تساعد البشر على فهم كيفية وصول الأنظمة الذكية إلى نتائجها، ما يتيح تقييم موثوقيتها واكتشاف الأخطاء المحتملة.
ويحاول الباحثون في Massachusetts Institute of Technology تحقيق توازن بين دقة النماذج وإمكانية تفسيرها، لبناء أنظمة ذكاء اصطناعي أكثر موثوقية ومساءلة.
نهج جديد قائم على المفاهيم
ركز الباحثون على تطوير تقنية تُعرف باسم «نموذج عنق الزجاجة المفاهيمي»، وهو أسلوب يهدف إلى جعل طريقة تفكير الأنظمة الذكية أكثر وضوحاً.
بدلاً من انتقال النظام مباشرة من البيانات إلى النتيجة، يقوم النموذج أولاً بتحديد مجموعة من المفاهيم القابلة للفهم البشري، ثم يستخدمها كأساس لاتخاذ القرار.
ففي حالة التعرف إلى الطيور من الصور مثلاً، قد يحدد النظام أولاً خصائص مثل:
- أجنحة زرقاء
- أرجل صفراء
- شكل المنقار
وبعد ذلك يستخدم هذه السمات لتحديد نوع الطائر بدقة.
وفي التصوير الطبي، يمكن أن تشمل هذه المفاهيم أنماطاً معينة في الأنسجة أو أشكالاً مرتبطة بمرض محدد.
تجاوز مشكلة المفاهيم المحددة مسبقاً
كانت النماذج السابقة تعتمد على مفاهيم يحددها الخبراء مسبقاً، لكن هذه المفاهيم قد لا تعكس دائماً التعقيد الحقيقي للمهمة.
ولهذا طوّر الباحثون في Massachusetts Institute of Technology طريقة جديدة تسمح للنظام باستخراج المفاهيم مباشرة من داخله، أي من الأنماط التي تعلمها أثناء التدريب، ثم تحويلها إلى مفاهيم مفهومة للبشر.
ترجمة تفكير الآلة
يعتمد النهج الجديد على دمج تقنيتين من التعلم الآلي:
- تحليل البنية الداخلية للنموذج لتحديد الخصائص الأكثر تأثيراً في القرار.
- تحويل هذه الخصائص إلى مفاهيم واضحة يمكن للبشر تفسيرها.
وبعد تحديد هذه المفاهيم، يصبح النظام ملزماً بالاعتماد عليها عند إصدار التنبؤات، ما يخلق سلسلة منطقية واضحة تربط بين البيانات والنتيجة.
ويشبه الباحث Antonio De Santis الهدف من هذا العمل بمحاولة فهم طريقة تفكير الإنسان، قائلاً إن الباحثين يسعون إلى قراءة ما يدور داخل نماذج الرؤية الحاسوبية ولماذا اتخذت قراراً معيناً.
نحو ذكاء اصطناعي أكثر موثوقية
يمثل تحقيق التوازن بين الدقة والشفافية أحد أكبر التحديات في تطوير أنظمة الذكاء الاصطناعي الحديثة. فالنماذج الأكثر تعقيداً غالباً ما تكون الأكثر دقة، لكنها في المقابل الأصعب تفسيراً.
ويأمل الباحثون أن يساعد النهج الجديد في تقليل هذه الفجوة من خلال التركيز على عدد محدود من المفاهيم الأكثر تأثيراً في القرار، ما يجعل تفسير النتائج أكثر وضوحاً.
ومع توسع استخدام الذكاء الاصطناعي في اتخاذ القرارات، قد تصبح القدرة على فهم منطق هذه الأنظمة عاملاً أساسياً لضمان الثقة بها، واكتشاف التحيزات المحتملة، وتحسين موثوقيتها في المستقبل.




