تحذير من مايكروسوفت: “كوبايلوت” لا يصلح لاتخاذ القرارات المهمة

شروط الاستخدام تكشف المخاطر المحتملة

في ظل التوسع المتسارع في استخدام تقنيات الذكاء الاصطناعي داخل المؤسسات، أطلقت مايكروسوفت تحذيرًا واضحًا بشأن أداة “كوبايلوت” (Copilot)، مؤكدة ضرورة عدم الاعتماد عليها في اتخاذ القرارات المصيرية.

وأوضحت الشركة، ضمن شروط الاستخدام، أن الأداة مخصصة في الأساس لأغراض ترفيهية، مع احتمالية تقديم نتائج غير دقيقة أو غير متوقعة، ما يفرض على المستخدمين توخي الحذر عند استخدامها.

دعوة صريحة لعدم الاعتماد الكامل

بحسب تقرير نشره موقع TechCrunch، شددت مايكروسوفت على أن “كوبايلوت” قد يرتكب أخطاء، ولا ينبغي الاعتماد عليه كمصدر رئيسي للمعلومات أو النصائح، خاصة في المجالات الحساسة مثل الصحة أو المال أو القانون.

ويعني ذلك أن مسؤولية التحقق من المعلومات تبقى على عاتق المستخدم، وليس الأداة.

رد مايكروسوفت على الجدل

أثار هذا التحذير تفاعلًا واسعًا، لا سيما مع توجه الشركة إلى توسيع استخدام “كوبايلوت” داخل بيئات العمل وتعزيز خدماته المدفوعة.

وفي هذا السياق، نقل موقع PCMag عن متحدث باسم الشركة أن هذه الصياغة تعود إلى نسخة قديمة من الشروط، مؤكدًا أن العمل جارٍ على تحديثها لتواكب التطور الحالي في قدرات الأداة.

تحذيرات مماثلة من شركات أخرى

لا تقتصر هذه التحذيرات على مايكروسوفت فقط، إذ تعتمد شركات أخرى النهج ذاته في التنبيه إلى محدودية الذكاء الاصطناعي.

فقد أكدت OpenAI أن مخرجات أنظمتها قد تحتوي على أخطاء، ولا يجب اعتبارها مصدرًا وحيدًا للحقيقة، كما تحذر xAI من التعامل مع نتائج الذكاء الاصطناعي باعتبارها حقائق مطلقة دون مراجعة بشرية.

فجوة بين الترويج والواقع

تعكس هذه التصريحات فجوة واضحة بين الترويج لقدرات الذكاء الاصطناعي والواقع العملي، الذي لا يزال يتطلب إشرافًا بشريًا دقيقًا، خاصة في المجالات الحساسة.

ورغم التقدم الكبير في هذه التقنيات، تتفق الشركات المطورة على رسالة واحدة: الذكاء الاصطناعي أداة مساعدة قوية، لكنه لا يمكن أن يكون بديلًا كاملًا عن الحكم البشري في اتخاذ القرارات المهمة.

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1640

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *