تتطور تقنية الذكاء الاصطناعي بشكل سريع، حيث انتقلنا من الروبوتات الاجتماعية الأولية مثل Kismet في التسعينيات إلى التكنولوجيات الحديثة مثل مكبرات الصوت الذكية Alexa. هذه التطورات تؤثر على كيفية تعامل البشر مع التكنولوجيا وتفاعلهم مع بعضهم البعض.
الروبوتات الاجتماعية والصور الرمزية الرقمية: تطبيقات وتأثيرات
تتناول أبحاثنا كيفية تجربة البشر للتفاعل مع الروبوتات الاجتماعية والصور الرمزية الرقمية التي تعتمد على الذكاء الاصطناعي. هذه التقنيات تهدف إلى تحسين التفاعل البشري من خلال تقديم تفاعل يشبه البشر. تحظى الروبوتات مثل ElliQ وPepper بشعبية متزايدة في أوروبا واليابان والولايات المتحدة، خاصة كأداة مساعدة لكبار السن، بينما تبنت نيوزيلندا هذه التقنيات ببطء.
تأثير الروبوتات الاجتماعية على الصحة والعلاقات
منذ بداية جائحة كوفيد-19، تم استخدام الروبوتات الاجتماعية والصور الرمزية الرقمية لمساعدة الأفراد في التعامل مع مشكلات مثل الشعور بالوحدة وصحة العقلية. في تجربة اسكتلندية خلال الجائحة، ساعد الروبوت الاجتماعي “بيبر” المشاركين على تحسين مزاجهم من خلال محادثات فيديو منتظمة.
الاستجابات البشرية لتكنولوجيا الذكاء الاصطناعي
أظهرت الدراسات، وفق ما نشره theconversation أن تفاعل البشر مع الروبوتات الاجتماعية والصور الرمزية الرقمية يتسبب في استجابات غير واعية. على سبيل المثال، قد يرغب المستخدمون في لمس الصورة الرمزية الرقمية أو يبتسمون استجابة لابتسامة الروبوت. يمكن أن يؤثر هذا التفاعل الجسدي والمعنوي على كيفية إدراكهم لهذه التكنولوجيا.
التفاعل اللامباشر وبناء الثقة مع الذكاء الاصطناعي
تتضمن هذه التفاعلات أيضًا استخدام اللغة والمفاهيم المشتركة، مثل استجابة الصورة الرمزية الرقمية لتعبيرات الوجه. كما يطور المستخدمون مستوى من الثقة في هذه الروبوتات، حيث ينسون أحيانًا أنهم يتعاملون مع جهاز وليس شخصًا حقيقيًا. هذه الثقة تتزايد عندما تبدو الروبوتات الاجتماعية أكثر إنسانية وواقعية.
التحديات المستقبلية والاعتبارات الأخلاقية
بينما توفر تقنيات الذكاء الاصطناعي فوائد في معالجة مشاكل الوحدة والصحة، من الضروري فهم آثارها الأوسع. قد يؤدي تزايد استخدام هذه التقنيات إلى تحول التفاعلات من الشخصية إلى الرقمية، مما يثير مخاوف حول علاقات غير مستدامة أو غير صحية. بالفعل، هناك حالات لأشخاص يبحثون عن علاقات رومانسية مع الصور الرمزية الرقمية.
التنظيم والمستقبل: الحاجة إلى حماية
تسعى المنظمات الدولية إلى وضع أطر تنظيمية لضمان استخدام الذكاء الاصطناعي بشكل مسؤول. يقدم قانون الذكاء الاصطناعي الذي أقرته المفوضية الأوروبية نموذجًا يمكن أن تسترشد به الحكومات الأخرى. من الضروري حماية الخصائص الفريدة للعلاقات الإنسانية مع دراسة التأثير المحتمل للذكاء الاصطناعي على التفاعل البشري. من خلال طرح هذه الأسئلة، يمكننا التنقل بشكل أفضل في المستقبل غير المعروف.