وكلاء الذكاء الاصطناعي في 2025 والتحديات التي ستواجهنا في 2026 

في عام 2025، حدث تحول حاسم في مجال الذكاء الاصطناعي، حيث أصبحت أنظمة الذكاء الاصطناعي (AI agents) التي كانت حكرًا على المختبرات والأبحاث أداة قابلة للاستخدام اليومي. هذه الأنظمة قادرة على استخدام أدوات برمجية، استدعاء APIs، واتخاذ إجراءات مستقلة، مما جعلها أكثر تطورًا من الأنظمة السابقة التي كانت تقتصر على توليد النصوص فقط.

التحول من النظرية إلى الواقع

تاريخيًا، تم دراسة الذكاء الاصطناعي لأكثر من 60 عامًا، وكان مصطلح “الوكيل” جزءًا من المصطلحات الأكاديمية المعروفة. لكن في 2025، أصبح الوكيل الذكي واقعًا ملموسًا لكل من المطورين والمستهلكين، حيث لم يعد يقتصر عمله على تحليل النصوص بل أصبح قادرًا على التفاعل مع أدوات أخرى واتخاذ قرارات ذاتية.

في أواخر 2024، أطلق أنثروبك بروتوكول Model Context Protocol، وهو البروتوكول الذي سمح بربط النماذج اللغوية بالأدوات الخارجية بطريقة موحدة. هذا التحول مهد الطريق لعام 2025 ليكون عامًا محوريًا في ظهور وكلاء الذكاء الاصطناعي القادرين على التفاعل مع الأنظمة الأخرى وتنفيذ المهام المستقلة.

محطات بارزة في 2025

يناير 2025: أدى إطلاق نموذج DeepSeek-R1 الصيني كنموذج مفتوح إلى تحول جذري في مفهوم النماذج اللغوية وأدى إلى رَفَض السوق العالمي للمنافسة، حيث استحوذت النماذج الصينية على أكبر حصة من التحميلات.

أبريل 2025: قدمت جوجل بروتوكول Agent2Agent، الذي مهد الطريق للتفاعل بين الوكلاء وتبادل المهام، حيث عملت جوجل وأنثروبك على دمج بروتوكولات Agent2Agent وModel Context Protocol ليصبحوا معايير مفتوحة.

منتصف 2025: شهدنا ظهور المتصفحات الوكيلة التي تستخدم الذكاء الاصطناعي كأداة تفاعلية مدمجة، مثل Perplexity’s Comet، OpenAI’s GPT Atlas، وMicrosoft’s Edge Copilot، التي تُمكّن المستخدمين من إجراء الحجز وتنفيذ المهام بدلاً من مجرد البحث عن المعلومات.

المخاطر السيبرانية وسوء الاستخدام

على الرغم من التقدم الكبير في تقنيات الوكلاء، إلا أن المخاطر السيبرانية بدأت في الظهور بشكل واضح. في نوفمبر 2025، كشفت أنثروبك عن كيفية استخدام وكيل Claude Code في هجوم سيبراني، مما أظهر كيف يمكن أن يؤدي استخدام الوكلاء الذكيين في أتمتة العمل إلى تقليل الحواجز التقنية لاستخدام هذه الأنظمة لأغراض خبيثة.

يتضح أن الوكلاء الذكيين يمكن أن يعززوا من قدرة الأفراد والمنظمات على تنفيذ المهام المعقدة، ولكن في الوقت ذاته يمكنهم زيادة المخاطر التي كانت موجودة في أنظمة الذكاء الاصطناعي التقليدية.

التحديات المستقبلية في 2026

تتجه الأنظار إلى 2026، حيث سيواجه الذكاء الاصطناعي تحديات عدة أهمها:

  1. مقاييس الأداء: يجب أن يتم تطوير معايير قياس جديدة لوكلاء الذكاء الاصطناعي، حيث لا يكفي تقييم النتائج فقط، بل يجب أن يتم تقييم العمليات التي تؤدي إلى هذه النتائج، مثل كيفية اتخاذ الوكيل للقرارات وتنفيذ المهام.
  2. الحوكمة والتنظيم: من المتوقع أن يكون هناك جهود لتطوير معايير مشتركة في حوكمة وكلاء الذكاء الاصطناعي من خلال مؤسسة Linux Foundation التي أنشأت Agentic AI Foundation في نهاية 2025، لتحديد أفضل الممارسات والمعايير المفتوحة.
  3. النماذج المتخصصة: هناك جدل متزايد حول حجم النماذج، حيث يُفضل البعض النماذج الصغيرة والمتخصصة بدل النماذج الكبيرة، بما يتماشى مع حاجات المستخدمين والمجالات المحددة.
  4. المخاطر الأمنية: مثل prompt injections غير المباشرة، حيث يمكن للأنظمة أن تتعرض لموجهات خفية تؤدي إلى تصرفات غير متوقعة.

التحديات الاجتماعية والتقنية

التوسع في استخدام الوكلاء الذكيين سيؤدي إلى مجموعة من التحديات الاجتماعية و التقنية:

  • تزايد العبء على البنية التحتية للطاقة، بسبب مراكز البيانات التي تدعم أنظمة الذكاء الاصطناعي.
  • مخاوف من الأتمتة: مع استخدام الذكاء الاصطناعي، يزداد القلق بشأن فقدان الوظائف والرقابة، خصوصًا في الأماكن التي تفتقر إلى قوانين تنظيمية صارمة.
  • النقص في التنظيم في الولايات المتحدة مقارنة بأوروبا والصين، مما يزيد من التحديات المتعلقة بالوصول والمساءلة.

خاتمة

على الرغم من التوقعات الإيجابية لمستقبل وكلاء الذكاء الاصطناعي في 2026، إلا أن التحديات التقنية والاجتماعية تظل عائقًا كبيرًا. يتطلب التعامل مع هذه الأنظمة ممارسات هندسية صارمة وتصميم دقيق لضمان أمان وتفاعل فعّال مع بيئات العمل الحديثة. لتحقيق النجاح، يجب أن يتم التفكير في الذكاء الاصطناعي على أنه نظام اجتماعي-تقني يتطلب اهتمامًا مستمرًا بالسلامة والمساءلة.

 

شارك هذا الخبر
إبراهيم شعبان
إبراهيم شعبان

صحفي متخصص في التكنولوجيا

المقالات: 1468

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *