تحذير من انتهاك الخصوصية عبر شرط التحقق من الهوية
حذر الدكتور محمد مغربي، خبير الأمن السيبراني والذكاء الاصطناعي، من المخاطر المحتملة التي تكتنف إطلاق شركة “OpenAI” لإصدار جديد من نموذج الذكاء الاصطناعي “ChatGPT” مخصص للبالغين فقط. هذا الإصدار، الذي أشار إليه الرئيس التنفيذي للشركة، سام ألتمان، سيتناول محتوى أكثر جرأة قد يصل إلى المحتوى الإباحي أو ما يشتمل على تلميحات، وذلك ضمن مبدأ “معاملة المستخدمين البالغين كبالغين”.
وأوضح مغربي في تصريحات أن الخطر الأكبر لا يكمن بالضرورة في طبيعة المحتوى المقدم، بل في تداعيات شرط التحقق من الهوية الذي قد تفرضه الشركة للوصول إلى هذا المحتوى.
نماذج الذكاء الاصطناعي كأدوات لجمع البيانات وتتبع الأفراد
شدد الخبير على أن مطالبة التطبيق بإدراج وثيقة رسمية لإثبات العمر الحقيقي للمستخدم هو ما يثير القلق العميق حول خصوصية الأفراد. ففي هذه الحالة، تتحول نماذج الذكاء الاصطناعي إلى أداة لجمع وتتبع البيانات الشخصية، مما يهدد الخصوصية الرقمية للمستخدمين ويعرضهم لخطر الاختراق بشكل يفوق بكثير خطورة المحتوى المثير للجدل نفسه.
مخاطر أخلاقية على المراهقين والقاصرين
وفي سياق متصل، نبه الدكتور مغربي إلى عدم وجود قيود واقعية أو ضمانات قوية من قبل هذه التطبيقات لمنع وصول القاصرين والمراهقين إلى هذا المحتوى المخصص للبالغين. وحذر من أن سهولة الوصول إلى هذه المواد في سن مبكرة تشكل مخاطر أخلاقية جسيمة على الجيل القادم.




