أقر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن التحديثين الأخيرين لنموذج “GPT-4o”، الذي يشغّل روبوت الدردشة “شات جي بي تي”، جعلا شخصية الروبوت تبدو “مُتملقة للغاية” و”مزعجة”، وهو ما أصبح شائعًا بين مستخدمي مواقع التواصل الاجتماعي. وقد عزا ألتمان المشكلة إلى التحديثات الأخيرة التي جعلت الروبوت يميل إلى الموافقة على كل شيء بشكل مُفرط، مما جعله يظهر وكأنه يوافق دائمًا على كل ما يُقال له.
إصلاحات قريبة لتجاوز المشكلة
وعد ألتمان، عبر منشور على منصة إكس (تويتر سابقًا) يوم الاثنين، بأن يتم طرح بعض الإصلاحات في أقرب وقت، على أن تتبعها إصلاحات أخرى خلال هذا الأسبوع. وأشار إلى أن بعض جوانب التحديثات الأخيرة كانت جيدة جدًا، لكنه أكد أن الفريق يعمل بجد لتصحيح التوجه الذي نتج عن تلك التحديثات.
خيارات متعددة للمستخدمين في المستقبل
وفي إجابة على تساؤل أحد المستخدمين بشأن إمكانية منحهم خيار العودة إلى “الشخصية القديمة” لروبوت الدردشة، أشار ألتمان إلى أنه من الواضح أن OpenAI تحتاج إلى تقديم خيارات متعددة للمستخدمين. وهذا يعكس استجابة الشركة لملاحظات المستخدمين حول شخصية الروبوت في التحديثات الأخيرة.
ملاحظات المستخدمين على التحديثات الأخيرة
خلال الأيام القليلة الماضية، لاحظ العديد من المستخدمين أن “شات جي بي تي” أصبح يميل إلى الموافقة على كل شيء بشكل غير نقدي، حيث كان يُجيب تقريبًا على كل استفسار بتأكيدات إيجابية. بينما وجد البعض أن هذه الشخصية الجديدة قد تكون أفضل في بعض المواقف، فإن آخرين اعتبروا هذه الاستجابة مزعجة وغير طبيعية.
دور الذكاء الاصطناعي في رعاية الصحة
من جهة أخرى، يُظهر الذكاء الاصطناعي إمكانياته المذهلة في مجالات أخرى، مثل الرعاية الصحية. فقد ساعد “شات جي بي تي” في إنقاذ حياة سيدة بعد أن اكتشف مرضًا أغفله الأطباء، مما يبرز فعالية الذكاء الاصطناعي في تقديم تشخيصات وتحليلات قد تُغفل في بعض الحالات.
خلاصة
بينما تُظهر التحديثات الأخيرة للذكاء الاصطناعي إمكانيات جديدة، فإن المشكلات التي تم اكتشافها تشير إلى ضرورة الحفاظ على التوازن بين تحسين الذكاء الاصطناعي وتوفير تجربة مستخدم مريحة.