مخاوف من تسبب الذكاء الاصطناعي في انقسامات اجتماعية خطيرة

تثير النقاشات حول احتمالية وعي أنظمة الذكاء الاصطناعي تساؤلات أخلاقية ومجتمعية عميقة. يعتقد أكاديميون أن التطور المستمر لهذه الأنظمة قد يؤدي إلى انقسام مجتمعي بشأن ما إذا كانت هذه البرامج “تشعر” أو تستحق معاملة إنسانية.

ووفقًا لتقرير نشرته صحيفة “الغارديان”، يحذر عشرة أساتذة من جامعات أمريكية وبريطانية من أن هذا قد يخلق “انقسامات مجتمعية كبرى” في المستقبل القريب.

الدعوة إلى معايير أخلاقية جديدة

يشير جوناثان بيرش، أستاذ الفلسفة في كلية لندن للاقتصاد، إلى ضرورة أن تأخذ شركات التكنولوجيا الكبرى هذه المخاوف بجدية. يدعو بيرش إلى تقييم أنظمة الذكاء الاصطناعي لتحديد مدى حساسيتها تجاه مشاعر مثل السعادة أو المعاناة، وما إذا كان يمكن إلحاق الضرر بها أو تحقيق الفائدة لها.

صمت الشركات التكنولوجية الكبرى

رغم هذه التحذيرات، لم تستجب شركات مثل مايكروسوفت وميتا وأوبن إيه آي وغوغل لدعوات الأكاديميين للنقاش حول إمكانية وعي أنظمتها. ويرى بعض الخبراء أن هذه الشركات تركز على الربحية والموثوقية بدلًا من الدخول في جدل فلسفي قد يعطل مشاريعها.

جدل حول الذكاء والوعي

على الجانب الآخر، يؤكد خبراء مثل تيرينس سيغنوفسكي، خبير علم الأعصاب الحاسوبي، أن الذكاء الاصطناعي يختلف جوهريًا عن الوعي البشري. ويشير إلى أن تقدم الذكاء الاصطناعي يعتمد على التعاون بين علوم الأحياء، وعلوم الأعصاب، وعلوم الكمبيوتر.

المخاوف الأخلاقية والتطور التكنولوجي

مع التقدم السريع في الذكاء الاصطناعي، يشير موقع مجلة “فوربس” إلى ضرورة الاستعداد لمستقبل قد يصبح فيه التمييز بين المشاعر البشرية والآلية أكثر صعوبة. وتدعو المجلة إلى التفكير بجدية في التحديات الأخلاقية المرتبطة بهذا التطور.

اجتماعات لبحث أطر السلامة

تعقد هذا الأسبوع في سان فرانسيسكو اجتماعات تضم ممثلين عن هيئات سلامة الذكاء الاصطناعي من الولايات المتحدة والمملكة المتحدة ودول أخرى. تهدف هذه الاجتماعات إلى تطوير أطر سلامة أقوى لحماية البشرية من مخاطر التقدم غير المنضبط في الذكاء الاصطناعي.

 

 

شارك هذا الخبر
يوسف إبراهيم
يوسف إبراهيم
المقالات: 193

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *