اكتشاف تسريب البيانات
كشفت تقارير تقنية عن ظهور محادثات خاصة لمستخدمي ChatGPT ضمن نتائج بحث جوجل، ما أثار مخاوف حول أمان أدوات الذكاء الاصطناعي عند التعامل مع بيانات المستخدمين، خصوصًا أثناء استخدام وضع التصفح على الإنترنت.
ووفقًا لموقع TechCrunch، اكتشف مطورون المشكلة أثناء مراجعة بيانات Google Search Console، حيث ظهرت جمل كاملة من محادثات ChatGPT بشكل مفصل، ما يوحي بأن جوجل قامت بفهرسة أجزاء من التفاعلات داخل المنصة.
سبب التسريب
أظهرت التحقيقات التي أجراها الباحثان جيسون باكر وسلوبودان مانيتش أن التسريب ناتج عن وضع تصفح الويب في ChatGPT.
تم توجيه بعض المحادثات عبر وسم داخلي يعرف بـ “تلميحات بحث”، الذي أضاف أجزاء من طلبات المستخدمين إلى عناوين URL، مما جعلها قابلة للفهرسة على جوجل ومرئية للعموم.
رد OpenAI
أكدت شركة OpenAI أنها كانت على علم بالمشكلة، وأنها أثرت على عدد محدود من المستخدمين فقط، وتم إصلاح الخلل فور اكتشافه.
وأوضحت الشركة أن التسريب لم يشمل كلمات مرور أو بيانات حساسة، لكنه يسلط الضوء على التحديات التقنية المتعلقة بدمج أنظمة الذكاء الاصطناعي مع الويب المفتوح.
توصيات حماية الخصوصية
على الرغم من إصلاح المشكلة، ينصح الخبراء بعدة خطوات وقائية:
- تجنّب إدخال معلومات شخصية أو حساسة أثناء استخدام أدوات الذكاء الاصطناعي.
- استخدام وضع التصفح المتخفي عند تجربة ميزات الويب.
- تعطيل وضع التصفح في ChatGPT عند عدم الحاجة إليه.
- مسح سجل الدردشة بانتظام لتقليل احتمالات تسرب البيانات.
وأكد التقرير أن اعتماد المستخدمين المتزايد على أدوات الذكاء الاصطناعي يتطلب وعيًا رقميًا أكبر وإجراءات حماية أقوى، فحتى الأخطاء التقنية الصغيرة قد تؤدي إلى تسريبات غير متوقعة.




