يعتبر الذكاء الاصطناعي التوليدي اليوم عاملاً رئيسياً في نقاشات الأمن السيبراني، بعدما بات قادراً على إنتاج نصوص وصور ووسائط رقمية تحاكي الواقع بدقة لافتة.

ورغم المكاسب التي تحققها هذه التكنولوجيا في قطاعات متعددة، مثل الرعاية الصحية والتحليلات المالية، إلا أنها في الوقت ذاته تثير قلقاً متزايداً حيال الخصوصية وأمن البيانات الشخصية.

وتعتمد النماذج التوليدية على كميات هائلة من البيانات المجمّعة من مصادر مفتوحة، وهو ما قد يشمل محتوى شخصياً لم يُصرَّح باستخدامه، الأمر الذي يطرح تساؤلات جوهرية حول ملكية البيانات والسيطرة عليها.

وتزداد خطورة الأمر مع إمكانية إعادة توظيف هذه البيانات لإنتاج محتوى مضلل أو لتقليد الهويات الرقمية عبر تقنيات “الديب فيك”.

وتبرز مشكلة إضافية في غياب الشفافية؛ إذ غالباً ما تعمل هذه الأنظمة كـ"صناديق سوداء"، يصعب على المستخدمين أو الخبراء فهم كيفية معالجتها للبيانات.

كما أن احتفاظ الشركات بمداخلات المستخدمين، بذريعة تطوير أنظمتها، يزيد من احتمالات تعرض تلك البيانات للاستغلال في هجمات تصيد أو تسريبات واسعة النطاق.

وفي قطاعات حساسة مثل الصحة أو القانون، قد يؤدي الاعتماد غير المنضبط على الذكاء الاصطناعي إلى خروقات مباشرة للسرية، ما يعزز المطالب بوضع تشريعات واضحة وإطار تنظيمي صارم.

ويؤكد خبراء أن تبني مبدأ "الخصوصية بالتصميم" يجب أن يكون خطوة أساسية لضمان أن يبقى الابتكار خادماً للتقدم البشري، لا بوابةً جديدة لتهديد الأمن السيبراني وحقوق الأفراد.

م.ال

اضف تعليق