تقرير: آلاف من أدوات وبيانات تدريب الذكاء الاصطناعي “غير محمية”

وفقًا لتقرير حديث، تم اكتشاف أن آلاف الأدوات والمجموعات الخاصة بتدريب نماذج الذكاء الاصطناعي متاحة على الإنترنت بشكل غير آمن، مما يفتح الباب أمام مخاطر تتعلق بالأمن والخصوصية.

وذكر الباحث الأمني شاران أكيري، وهو كبير مهندسي الأمن في Reddit، أن البيانات التي يمكن الوصول إليها تشمل النماذج الذكية نفسها، بالإضافة إلى مجموعات بيانات التدريب التي تحتوي على معلومات حساسة، والبارامترات الفائقة (hyperparameters) المستخدمة في ضبط النماذج، بل وحتى البيانات الخام التي تم استخدامها في بناء هذه النماذج.

أدوات مكشوفة

أفاد أكيري أن بعض الأدوات التي تم اكتشافها تتعلق بشركات تقنية كبرى، وهو ما يثير قلقًا كبيرًا بشأن سلامة البيانات التجارية والبحثية الخاصة بهذه الشركات.

يأتي ذلك في وقت تتسابق فيه المؤسسات الكبرى لتطوير نماذج متقدمة تعتمد على الذكاء الاصطناعي، ما يجعل هذه الأدوات هدفًا محتملاً للقراصنة أو أي جهة تهدف إلى إساءة استغلالها.

تهديدات أمنية

أحد أبرز المخاوف التي أثارها أكيري هو أن التعرض لهذه البيانات لا يقتصر على استخدام النماذج فقط، بل يمتد إلى احتمالية الوصول إلى مجموعات البيانات الأصلية التي قد تحتوي على معلومات خاصة أو حساسة، مما يزيد من خطر تسرب البيانات.

وذكر أيضًا أن هذه الثغرات تظهر بسبب ضعف إجراءات المصادقة والحماية، وهي مشكلة تشترك فيها أدوات الذكاء الاصطناعي مع غيرها من الأدوات الحسابية عبر الإنترنت.

تأثيرات محتملة

وبحسب موقع 404media، وهو منصة إخبارية تُركز على التكنولوجيا والأمن الرقمي والخصوصية والابتكارات في مجالات مثل الذكاء الاصطناعي والبيانات، فإن هذا التسريب قد يؤدي إلى نتائج خطيرة، بما في ذلك:

تسرب بيانات حساسة: إمكانية وصول القراصنة أو الجهات غير المصرح لها إلى معلومات حساسة قد تكون جزءًا من بيانات التدريب المستخدمة في النماذج.

إعادة استخدام غير مصرح به: تعرض نماذج الذكاء الاصطناعي والبيانات المستخدمة فيها يعرضها لإعادة الاستخدام أو التعديل من قبل أطراف ثالثة دون موافقة.

إساءة استخدام البيانات: إمكانية استغلال البيانات التي تم تسريبها لأغراض غير قانونية أو غير أخلاقية.

الدعوة لتعزيز الأمن

ويُظهر التقرير أن الحفاظ على أمن أدوات الذكاء الاصطناعي يتطلب اهتمامًا أكبر بالبروتوكولات الأمنية التي تحمي هذه الأدوات. كما دعا أكيري الشركات إلى تحسين ممارسات الأمان واعتماد تقنيات متقدمة لحماية نماذج الذكاء الاصطناعي وبيانات التدريب من التسريبات.

شارك هذا الخبر
محمد غانم
محمد غانم

صحفي متخصص في التقنية والسيارات، عضو نقابة الصحفيين المصرية، المحرر العام السابق لمجلة «الشرق تكنولوجي»، ومحرر التقنية السابق بالنسخة العربية من صحيفة AS الإسبانية، ومؤسس «نوتشر دوت كوم»، شارك في تحرير إصدارات مطبوعة وإلكترونية متخصصة في التقنية بصحف عربية عدة.

المقالات: 160

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *