المخاطر المحتملة لأنظمة الذكاء الاصطناعي
حذر الرئيس التنفيذي السابق لشركة “غوغل”، إيريك شميت، من المخاطر المرتبطة بالتطور السريع لأنظمة الذكاء الاصطناعي، مؤكداً أن هذه الأنظمة قد تصل إلى مرحلة تتمكن فيها من تطوير وتحسين نفسها تلقائياً دون الحاجة إلى التدخل البشري. وأشار إلى أنه في حال حدوث ذلك، سيكون من الضروري “فصل” هذه الأنظمة وإيقافها عن العمل لتجنب المخاطر المحتملة.
تصريحات شميت حول التطور السريع
خلال مقابلة مع شبكة “إي بي سي”، وصف شميت الذكاء الاصطناعي بأنه “إنجاز بشري رائع”، لكنه شدد على وجود مخاطر غير متوقعة نتيجة لهذا التقدم السريع. وأوضح أن العلماء يعملون حالياً على تطوير أجهزة كمبيوتر يمكنها تشغيل نفسها وتطوير قدراتها بشكل مستقل، مما يثير مخاوف بشأن القرارات التي قد تتخذها هذه الأنظمة دون تدخل بشري.
الحاجة إلى التحكم في الأنظمة المتطورة
عندما سُئل عن إمكانية مواجهة هذه الأنظمة لأي جهود لإيقافها، أشار شميت إلى ضرورة وجود جهة أو شخص قادر على التحكم في هذه الأنظمة أثناء تطورها. وأكد أن زيادة قوة الذكاء الاصطناعي تعني أن كل فرد قد يمتلك “عالمًا موسوعيًا في جيبه”، وهو أمر قد يحمل تبعات خطيرة على المجتمع، خاصة مع منح هذا النوع من القوة للجميع دون قيود واضحة.
تقديرات بحدوث تطورات خلال الأعوام المقبلة
وفقاً لتصريحات سابقة لشميت لموقع “أكسيوس”، قد تشهد السنوات القليلة المقبلة، تحديداً خلال عامين إلى أربعة أعوام، ظهور أجهزة كمبيوتر قادرة على اتخاذ قراراتها الخاصة بشكل كامل. كما يتفق خبراء التكنولوجيا على أن نماذج الذكاء الاصطناعي التوليدي الأكثر تطوراً قد تصل قريباً إلى مستوى ذكاء مماثل لطالب دكتوراه، ربما في أقرب وقت ممكن بحلول العام المقبل.
ضرورة الاستعداد للمخاطر
يؤكد شميت أن التطور السريع لأنظمة الذكاء الاصطناعي يتطلب مراقبة دقيقة وضوابط صارمة، حيث إن المخاطر المحتملة قد تكون غير متوقعة. كما يشير إلى أهمية التفكير في الأبعاد الأخلاقية والمجتمعية لهذا التطور لضمان استخدامه بما يخدم البشرية دون تهديد استقرارها.