من خدمة البشرية إلى دعم الدفاع السيبراني.. مهام OpenAI تثير الجدل

من تأسيس مثالي إلى شراكات عسكرية مثيرة للجدل.. كيف تغيّرت معادلة الذكاء الاصطناعي في OpenAI؟

منذ تأسيسها في ديسمبر 2015، وضعت شركة OpenAI هدفًا واضحًا: تطوير الذكاء الاصطناعي العام (AGI) لخدمة البشرية جمعاء، واضعةً “الصالح العام” في صميم رؤيتها. لكن مع تسارع تطورها ودخولها في شراكات مع كبرى الشركات والحكومات، بدأت الأسئلة تتصاعد: هل ما زالت OpenAI وفية لمبادئها الأولى؟

نموذج ربحي محدود.. تحوّل مثير للجدل

في عام 2019، ووفق تقرير مطول نشرته “إندبندنت عربية” تحولت OpenAI إلى نموذج “ربحي محدود” (Capped-Profit) يسمح للمستثمرين بجني أرباح تصل إلى 100 ضعف استثماراتهم، لتجذب تمويلات ضخمة أبرزها من مايكروسوفت، التي استثمرت مليار دولار في شراكة استراتيجية. رغم هذا التحول، ظلت البنية القانونية للشركة هجينة، حيث تسيطر المنظمة غير الربحية “OpenAI Inc” على الكيان الربحي “OpenAI Global LLC”، في محاولة للحفاظ على التوازن بين الربحية والمسؤولية الاجتماعية.

صفقة دفاع بـ200 مليون دولار تفتح باب التساؤلات

في 18 يونيو 2025، وقّعت وزارة الدفاع الأميركية عقدًا بقيمة 200 مليون دولار مع OpenAI لتطوير أدوات ذكاء اصطناعي في مجالات الدفاع السيبراني وتحسين الكفاءة الإدارية والعسكرية. ورغم تأكيد الشركة أنها لن تطور أسلحة أو أدوات ضارة، فإن تعديلها لشروط الاستخدام العام الماضي وإزالة الحظر على التطبيقات العسكرية أثار موجة من الانتقادات الأكاديمية والحقوقية.

روبوتات ومراكز بيانات.. سباق غير مسبوق

سبق هذه الصفقة تعاون OpenAI مع شركة Anduril لتطوير تقنيات مواجهة الطائرات المسيّرة. وتعمل OpenAI حاليًا على بناء مصانع كمبيوترات ذكاء اصطناعي عملاقة في تكساس بالتعاون مع “فوكسكون” و”ويسترون”، مما يعكس التحول نحو البنية التحتية الضخمة المكلفة لتشغيل نماذج مثل GPT-4 و”Gemini”.

احتكار العقول والبيانات يهدد الابتكار المفتوح

يُحذر خبراء من أن هيمنة شركات كبرى مثل OpenAI وGoogle وAnthropic على البيانات والنماذج المتقدمة قد يقوّض مبدأ “الابتكار المفتوح”، ويمنع الباحثين المستقلين من الوصول إلى أدوات الذكاء الاصطناعي المتقدمة.

ويؤكد د. محمد علي الملا، أستاذ الذكاء الاصطناعي بجامعة الكويت، أن “ما يحدث لا يقتصر على احتكار البيانات، بل يذهب إلى حد احتكار العقول“، حيث تنتج هذه النماذج المعارف وتُقدم الاستشارات وتُحلل البيانات، مما يمنح الشركات سيطرة غير مسبوقة على سلوك الأفراد وقراراتهم.

ويضيف الملا:

“نحن أمام جيل جديد من الإمبراطوريات التقنية، لكنها لا تسيطر على وقتك أو سلوكك فحسب، بل على طريقة تفكيرك.”

أخلاقيات التدريب على بيانات عامة

ويثير استخدام OpenAI للبيانات العامة في تدريب نماذجها جدلاً واسعًا. فبينما ترى الشركة أنها تستفيد من المحتوى المتاح لتطوير أدوات تخدم الجميع، يرى الملا أن “استخدام المقالات والصور والبرمجيات المفتوحة المصدر دون إذن أو تعويض نوع من الاستغلال غير العادل“، مطالبًا بآليات ترخيص عادلة تحفظ حقوق المبدعين.

أزمة إدارة.. وأزمة ثقة

في نوفمبر 2023، واجهت OpenAI أزمة قيادة كبرى بإقالة الرئيس التنفيذي سام ألتمان قبل أن يعود لاحقًا تحت ضغط داخلي وخارجي. الأزمة كشفت عن خلافات داخلية تتعلق بمشروع سري لتعزيز قدرات النماذج في مجالي المنطق والرياضيات، ما أثار مخاوف بشأن السلامة وضبط تطوير الذكاء الاصطناعي.

سباق عالمي بمعادلات متضاربة

بينما تسير OpenAI على خطى الربح المسؤول، تتبنى شركات أخرى نماذج مختلفة:

  • Anthropic تركز على “الذكاء الاصطناعي الدستوري” والحوكمة الأخلاقية.
  • Meta تطرح نماذج مفتوحة المصدر مثل LLaMA.
  • Google DeepMind تحولت تدريجيًا إلى ذراع تجاري.
  • xAI التابعة لإيلون ماسك جمعت أكثر من 14 مليار دولار من الاستثمارات.
  • شركات مثل Mistral وDeepSeek الصينية تدفع باتجاه الشفافية والنماذج المفتوحة.

دعوات لرقابة دولية وتنظيم شامل

وسط هذا السباق المحتدم، تزداد الدعوات لتأسيس ميثاق عالمي للذكاء الاصطناعي أو إنشاء هيئة دولية شبيهة بـ”الوكالة الدولية للطاقة الذرية”، لضمان ألا يتجاوز التطور السريع لهذه التقنيات حدود السلامة والعدالة.

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 884

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *