تشير دراسة حديثة إلى أن النصيحة الشائعة باستخدام “شخصيات الخبراء” عند التعامل مع روبوتات الذكاء الاصطناعي قد لا تكون فعالة كما يعتقد البعض، بل قد تؤثر سلباً على دقة المعلومات في بعض الحالات.
اختبار علمي على نماذج الذكاء الاصطناعي
أجرى باحثون من جامعة كاليفورنيا دراسة شملت 12 شخصية مختلفة تم تطبيقها على 6 نماذج لغوية، تضمنت أدواراً مثل خبراء الرياضيات والبرمجة وكتاب المحتوى ومراقبي السلامة.
وكان الهدف هو تقييم مدى تأثير استخدام “الشخصيات” على جودة ودقة إجابات الذكاء الاصطناعي.
نتائج متباينة بين الاحتراف والدقة
أظهرت النتائج أن توجيه النموذج ليعمل كخبير يجعله أكثر التزاماً بالتعليمات ويمنح إجابات أكثر تنظيماً واحترافية.
لكن في المقابل، تراجعت قدرته على استرجاع المعلومات الدقيقة، مما أدى إلى انخفاض مستوى الموثوقية في بعض المهام.
تفسير المشكلة: التركيز على الأسلوب بدل المعرفة
أوضحت الدراسة أن اعتماد الذكاء الاصطناعي على “الشخصية” يدفعه للتركيز على أسلوب الإجابة واتباع التعليمات أكثر من استرجاع الحقائق من قاعدة المعرفة، وهو ما ينعكس سلباً على الدقة في الإجابات العلمية والمباشرة.
حل مبتكر: نظام PRISM
اقترح الباحثون نظاماً جديداً يحمل اسم PRISM، يعتمد على فكرة التوازن بين الوضع الافتراضي والشخصية.
يقوم النظام بتوليد إجابتين لكل سؤال: واحدة دون شخصية وأخرى باستخدامها، ثم يقارن بينهما لاختيار الأفضل وفق طبيعة السؤال.
آلية عمل النظام وتحسين الأداء
لا يتم تجاهل الإجابة غير المختارة، بل يتم تخزين أسلوبها عبر وحدة خفيفة تُعرف باسم LoRA adapter، مما يسمح للنموذج بتحسين أدائه مستقبلاً.
وأظهرت النتائج أن هذا النهج رفع أداء النماذج بمقدار يتراوح بين نقطة إلى نقطتين في اختبار MT-Bench.
متى تكون الشخصيات مفيدة؟
أشارت الدراسة إلى أن استخدام “الشخصيات” يكون أكثر فاعلية في مهام الكتابة والإبداع والسلامة، بينما يكون تجاهلها أفضل في الأسئلة التي تتطلب دقة معرفية عالية ومعلومات مباشرة.
خلاصة:
تكشف الدراسة أن الاعتماد على توجيه الذكاء الاصطناعي كـ“خبير” ليس دائماً الخيار الأفضل، وأن التوازن بين الأسلوب والدقة قد يكون المفتاح لتحسين جودة الإجابات في المستقبل.




