نافذة الإطلاق بين 15 و30 أغسطس 2025
تخطط شركة ديب سيك لإطلاق نموذج اللغة الكبير DeepSeek-R2 في فترة ما بين 15 و30 أغسطس 2025، وذلك بعد أيام قليلة من طرح ChatGPT-5.
المؤشرات على قرب الإطلاق ظهرت أثناء التفاعل مع نموذج الذكاء الاصطناعي الخاص بالشركة، ما يعزز التوقعات بطرح وشيك.
بنية متقدمة تعتمد مزيج الخبراء
سيعتمد DeepSeek-R2 على بنية أكثر تطورًا بتقنية مزيج الخبراء (MoE)، إضافة إلى شبكة بوابات ذكية لإدارة أعباء العمل عالية الاستدلال بكفاءة أكبر.
ووفقًا لمصادر مطلعة، يمكن للنموذج التوسع إلى 1.2 تريليون مُعامل، وهو ما يقارب ضعف حجم DeepSeek-R1 البالغ 671 مليار مُعامل، لكنه يظل أقل من ChatGPT-4 وGPT-5 اللذين يتجاوزان 1.8 تريليون مُعامل.
تدريب كامل على شرائح هواوي Ascend 910B
في خطوة نحو الاكتفاء الذاتي، تم تدريب النموذج على شرائح هواوي Ascend 910B، التي توفر قدرة معالجة تصل إلى 512 بيتافلوبس FP16 بنسبة استخدام 82%، ما يعادل 91% من أداء وحدات NVIDIA A100.
يرى المحللون أن هذه الخطوة تمثل تقدمًا مهمًا في تقليل اعتماد الصين على العتاد الأميركي في مجال الذكاء الاصطناعي.
تكلفة تدريب أقل بنسبة 97%
تشير التقارير إلى أن تكلفة تدريب DeepSeek-R2 أقل بنسبة 97% مقارنة بـ GPT-4، بفضل استخدام أجهزة محلية وتقنيات تحسين متقدمة.
ومن المتوقع أن تقدم ديب سيك واجهة برمجة تطبيقات (API) بأسعار تنافسية، مما قد يغير قواعد التسعير في السوق التي تهيمن عليها OpenAI وAnthropic.
هواوي تطلق إطار عمل UCM لتسريع الاستدلال
بالتوازي مع تطوير R2، أطلقت هواوي إطار عمل جديد باسم مدير ذاكرة التخزين المؤقت الموحد (UCM)، والمصمم لتسريع عمليات استدلال النماذج.
الإطار يحسن إدارة بيانات ذاكرة التخزين المؤقت KV عبر مستويات الذاكرة HBM وDRAM وSSD، وفي اختبارات مع China UnionPay، سجل انخفاضًا في زمن الوصول بنسبة 90% وزيادة في الإنتاجية بمقدار 22 ضعفًا.
تخطط هواوي لجعل UCM مفتوح المصدر في سبتمبر المقبل.
تحول استراتيجي في طموحات الصين
إطلاق DeepSeek-R2 بالتزامن مع UCM يعكس توجه الصين نحو بناء وتشغيل أنظمة ذكاء اصطناعي عالية الأداء دون الاعتماد على الرقائق أو البرمجيات الغربية، مما قد يعيد تشكيل خريطة المنافسة العالمية في هذا القطاع.




