أصبح السؤال الذي كان يوماً ما ضرباً من الخيال العلمي حقيقة واقعة: هل باتت خوارزميات الذكاء الاصطناعي تعرف عنّا أكثر مما نعرف عن أنفسنا؟ مع التطورات السريعة، لم يعد الإنسان الحديث مراقباً فحسب، بل صار مُحلَّلاً بعمق، حيث تغوص التكنولوجيا في أغوار مشاعره ونواياه ودوافعه الخفية. يبرز تحدٍ وجودي جديد: هل نحن أمام ثورة معرفية أم فقدان كامل للذاتية والخصوصية؟
الذكاء الاصطناعي والحدود الجديدة للخصوصية الإنسانية
تجاوزت الخصوصية كونها مجرد حماية للبيانات والصور الشخصية، لتصبح مرتبطة بما هو أعمق داخل الإنسان. الذكاء الاصطناعي لم يعد يكتفي بتتبع ما نفعله، بل يسعى لفهم لماذا نفعله، وذلك عبر تقنيات متقدمة:
تحليل المشاعر (Emotion Recognition): تستخدم الكاميرات الذكية وأنظمة واجهات الاستخدام تقنيات لتحليل تعابير الوجه الدقيقة، ونبرة الصوت، واتساع حدقة العين، وحتى إيقاع التنفس.
التقييم النفسي اللحظي: تُستخدم هذه الأنظمة بالفعل في قطاعات حيوية مثل الموارد البشرية، التعليم، والتسويق، والأمن لتقييم الأفراد بناءً على حالتهم العاطفية اللحظية بدلاً من مؤهلاتهم أو سلوكهم الفعلي، وفقاً لتقارير من مؤسسة Electronic Frontier Foundation (EFF).
من التمييز الخوارزمي إلى قراءة الأفكار
أدت هذه التقنيات إلى ظهور جدل واسع حول “التمييز الخوارزمي” (Algorithmic Discrimination) وتعدت ذلك إلى محاولات لفهم الأفكار الداخلية:
1. تطبيقات في التوظيف والتعليم
القبول الوظيفي: أثارت شركات مثل HireVue الأمريكية جدلاً لاستخدامها خوارزميات لتحليل تعابير وجه المتقدمين خلال المقابلات المسجلة لتقدير صفات مثل “الحماس” أو “القيادية”، مما دفعها لتقليص استخدام التقنية بعد اتهامات بالتمييز.
مراقبة التلاميذ: انتشرت تقارير في الصين عن استخدام برامج لتحليل المشاعر في المدارس لقياس انتباه التلاميذ عبر تتبع نظراتهم وتعابيرهم، مما أثار انتقادات بانتهاك خصوصية الأطفال وتحويل التعليم إلى عملية مراقبة كاملة.
2. محاولة قراءة العقول
نقلت الأبحاث الأخيرة الذكاء الاصطناعي من “مراقبة السلوك” إلى محاولة “فك تشفير الفكر”:
فك تشفير الأفكار (المحللات الدلالية): في عام 2023، أعلن باحثون من جامعة تكساس عن نموذج ذكاء اصطناعي قادر على “فك تشفير” الأفكار البشرية وتحويلها إلى نصوص مفهومة. استخدم النموذج تقنية تصوير الدماغ الوظيفي (fMRI) لترجمة أنماط النشاط العصبي إلى جمل تعيد بناء المعنى الكامن وراء فكرة الشخص، حتى دون أن ينطقها.
توليد صور من الدماغ: طور باحثون في جامعة أوساكا باليابان نظاماً مشابهاً لتوليد صور مطابقة لما يراه الشخص بالاعتماد على أنماط نشاط دماغه.
الرقائق الدماغية: تواصل شركة Neuralink التابعة لإيلون ماسك التقدم في مشروع زرع رقائق دماغية للتواصل المباشر بين الدماغ والحاسوب.
الأطر القانونية والأخلاقية لمواجهة التطفل
يحذر خبراء الأخلاقيات من أن هذه التطورات العلمية قد تتحول إلى أداة مراقبة غير مسبوقة تخترق أكثر مناطق الوعي الإنساني خصوصية، مما جعل البعض يصفها بـ “نقطة اللاعودة”.
قانون الذكاء الاصطناعي الأوروبي (AI Act): تبنى الاتحاد الأوروبي في عام 2024 أول إطار تشريعي عالمي من نوعه، يصنّف تطبيقات الذكاء الاصطناعي وفق درجة الخطورة (منخفضة، محدودة، عالية، ومحظورة تماماً).
منع المراقبة الذهنية: يُجَرِّم القانون الأوروبي استخدام الأنظمة التي تمارس أي نوع من المراقبة العاطفية أو الذهنية، أو تلك التي قد تؤدي إلى تلاعب نفسي أو اجتماعي بالأفراد.
الشفافية والعقوبات: يلزم القانون الشركات بتوفير شفافية كاملة حول تدريب النماذج ومصادر البيانات، ويفرض غرامات ضخمة (تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية) على المخالفين، بهدف ترسيخ مفهوم “الذكاء الاصطناعي الموثوق”.




