أثارت أدوات الذكاء الاصطناعي الأميركية الخاصة، بالبرمجة جدلاً واسعاً حول أصول نماذجها الأساسية، بعد ظهور مؤشرات على اعتماد بعض هذه الأدوات على نماذج صينية مفتوحة المصدر.
جدل حول النماذج الأساسية:
- أطلقت شركة Cognition AI نموذجها SWE-1.5، المتميز بسرعة توليد الأكواد وأدائه القريب من مستوى النماذج المتقدمة، مؤكدة أنه مبني على “نموذج مفتوح المصدر رائد” دون الإفصاح عن التفاصيل.
- التكهنات تشير إلى أن SWE-1.5 قد يعتمد على نموذج GLM-4.6 من شركة Zhipu AI الصينية، الصادر برخصة MIT المفتوحة التي تسمح بالاستخدام التجاري والتعديل دون الحاجة للإسناد الرسمي.
- شركة ناشئة أخرى، Cursor، أطلقت مساعد برمجة باسم Composer، أبلغ بعض المستخدمين عن ظهور آثار تفكير باللغة الصينية في مخرجاته، ما يطرح تساؤلات حول اعتماده على نموذج صيني أيضاً.
قضايا أخلاقية وشفافية:
- رغم أن رخص MIT قانونية، فإن استخدامها أثار جدلاً حول الشفافية والعدالة في تطوير أدوات الذكاء الاصطناعي.
- الباحث في الذكاء الاصطناعي فلوريان براند أكد أن القيمة الفعلية تأتي من التخصيص وضبط النماذج وليس فقط من النموذج الأساسي.
منظور الشركات الصينية:
- اعتبرت Zhipu AI الوضع إيجابياً، مؤكدة أن التعاون المفتوح المصدر يعزز النظام البيئي العالمي للذكاء الاصطناعي، وأعلنت زيادة عشرة أضعاف في عدد المستخدمين الدوليين المدفوعين مؤخراً، مع إطلاق خطة اشتراك للبرمجة لتوسيع نشاطها عالمياً.
تأثير على المستخدم العادي:
- يسلط الجدل الضوء على تحديات الثقة والشفافية وأمن البيانات.
- عدم الإفصاح عن مصدر النماذج يترك المستخدمين غير متأكدين من كيفية معالجة بياناتهم والتزام التقنية بمعايير الخصوصية.
- يطرح الأمر أسئلة أخلاقية حول الاستخدام العادل ومنح الإسناد المناسب، خصوصاً عند الاعتماد على أعمال الآخرين دون ذكر المصدر.
خلاصة:
الذكاء الاصطناعي أصبح عالمياً ومترابطاً، ما يجعل الشفافية حول أصول النماذج أمرًا حيوياً لكسب ثقة المستخدمين وضمان الاستخدام الأخلاقي للتقنيات الحديثة.




