جوجل تستخدم “Claude” لتطوير نموذج الذكاء الاصطناعي “Gemini AI”

مقارنة بين “Gemini” و”Claude”

تعمل شركة غوغل على تحسين نموذج الذكاء الاصطناعي الخاص بها “Gemini AI” عبر مقارنة أدائه بنموذج “Claude” الذي تطوره شركة “Anthropic”. وفقًا لتقرير صادر عن موقع “TechCrunch”، يقوم متعاقدون مخصصون للعمل على “Gemini” بتقييم الإجابات الناتجة من كلا النموذجين لتحديد الدقة والجودة.

استخدام “Claude” يثير تساؤلات

لم يُعرف بعد ما إذا كانت غوغل قد حصلت على إذن من شركة “Anthropic”، التي تُعد مستثمرًا رئيسيًا فيها، لاستخدام نموذج “Claude” في اختبارات “Gemini”. يُذكر أن الشروط التجارية لشركة “Anthropic” تمنع العملاء من استخدام “Claude” لأغراض تطوير منتجات أو خدمات منافسة دون موافقة مسبقة.

أسلوب التقييم

أشارت المراسلات الداخلية التي اطلع عليها “TechCrunch” إلى أن المتعاقدين يعملون على تقييم دقة الإجابات المقدمة من “Gemini” مقارنة بـ”Claude” بناءً على معايير متعددة، مثل الصدق والسلامة. يُمنح المتعاقدون فترة تصل إلى 30 دقيقة لتقييم كل إجابة وتحديد النموذج الأفضل.

الاختلافات بين النموذجين

كشفت المحادثات الداخلية أن نموذج “Claude” يظهر تركيزًا أكبر على السلامة مقارنة بـ”Gemini”. على سبيل المثال، يتجنب “Claude” الإجابة عن الطلبات التي قد تكون غير آمنة، بينما تم تصنيف بعض استجابات “Gemini” على أنها تمثل “انتهاكًا كبيرًا للسلامة”.

أهمية هذه المقارنات

تأتي هذه الاختبارات في ظل المنافسة المتزايدة بين شركات التكنولوجيا لتطوير نماذج ذكاء اصطناعي أكثر دقة وأمانًا. عادةً، يتم تقييم النماذج بناءً على معايير الصناعة، إلا أن استخدام المتعاقدين لتقييم ردود النماذج بشكل مباشر يُظهر نهجًا جديدًا في تحسين أداء الذكاء الاصطناعي.

خاتمة

من الواضح أن غوغل تسعى إلى تعزيز نموذجها “Gemini AI” ليكون منافسًا قويًا في سوق الذكاء الاصطناعي، إلا أن استخدامها لنموذج “Claude” قد يثير تساؤلات قانونية وأخلاقية حول معايير تطوير واختبار النماذج المنافسة.

 

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 199

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *