في تطور بارز ضمن سباق الذكاء الاصطناعي العالمي، أعلنت مجموعة علي بابا القابضة عن إطلاق جيل جديد من نماذج اللغات الكبيرة يتميز بالكفاءة والسرعة، مع تكاليف منخفضة مقارنةً بمنافسيها.
تفاصيل نموذج Qwen3-Next-80B-A3B
كشفت وحدة علي بابا كلاود للذكاء الاصطناعي والحوسبة السحابية عن نموذجها الجديد Qwen3-Next-80B-A3B، الذي يأتي أصغر بنحو 13 مرة من أكبر نماذجها السابقة، لكنه يتفوق في الأداء وسرعة التنفيذ.
ووفقًا لتقرير نشره موقع SCMP، فقد ساعدت الابتكارات التقنية الجديدة على خفض تكاليف التدريب بنسبة تصل إلى 90%، حيث لم تتجاوز 500 ألف دولار، مقارنةً بمئات الملايين التي أنفقتها شركات كبرى مثل جوجل على تدريب نماذجها.
تقنيات مبتكرة وراء النجاح
اعتمد النموذج على مجموعة من التقنيات الحديثة، أبرزها:
- آلية الانتباه الهجين Hybrid Attention.
- تقنية Gated DeltaNet التي طورها باحثون من MIT وNvidia.
- بنية مزيج الخبراء (MoE) التي توزع المهام بين خبراء افتراضيين متخصصين.
هذه الأساليب حسّنت من كفاءة معالجة البيانات مع تقليل استهلاك الموارد، مما ساعد على تعزيز الأداء وخفض التكاليف.
أداء متفوق وصغر الحجم
رغم احتوائه على 3 مليارات معلمة نشطة فقط، فقد حقق النموذج تكافؤًا مع أقوى المنافسين مثل DeepSeek-V3.1 وKimi-K2.
كما يتميز النموذج بقدرته على العمل على بطاقة رسومية واحدة من طراز Nvidia H200، ما يجعله مناسبًا للتشغيل على أجهزة الكمبيوتر والهواتف الذكية، ويعزز فرص استخدامه في التطبيقات العملية اليومية.
ملامح الجيل القادم من الذكاء الاصطناعي
يرى خبراء أن ابتكار “علي بابا” يعكس مستقبل الذكاء الاصطناعي القائم على نماذج أصغر حجمًا وأكثر كفاءة وأقل تكلفة، في وقت ترتفع فيه تكلفة تدريب النماذج العملاقة لتصل إلى مئات الملايين، وربما تتجاوز المليار دولار بحلول عام 2027.




