El 28 de enero de 2024 es el Día Europeo de la Protección de Datos. En este contexto, es importante crear conciencia sobre la privacidad y la protección de datos y sobre las cuestiones relevantes de seguridad informática, independientemente de si se refieren al entorno privado o corporativo.
Los avances en inteligencia artificial (IA) y aprendizaje automático (ML) están en el Día de la Protección de Datos 2024 una cuestión obvia, tanto por los beneficios potenciales que tales herramientas conllevan como por los peligros asociados con ellas, que sin duda son motivo de preocupación. Según Carla Roncato, vicepresidenta de identidad de WatchGuard Technologies.
La IA como amenaza a la protección de datos
Dada la adopción generalizada de herramientas de IA solo en el último año, es fundamental que WatchGuard, como representante de la comunidad de seguridad de TI, aproveche esta oportunidad para defender los riesgos que la IA plantea para la protección de nuestros datos. de ello. La IA se está abriendo camino cada vez más en nuestra vida cotidiana y, sobre todo, afecta a nuestro derecho a la protección de datos.
Las empresas y los usuarios individuales nunca deben olvidar una cosa: si un servicio que utilizan es "gratuito", al final probablemente se acceda a datos a cambio de un "precio". Esto también se aplica a las herramientas de inteligencia artificial, por lo que todos deberían actuar en consecuencia. Muchos de los primeros servicios y aplicaciones de inteligencia artificial (incluido ChatGPT) utilizan un modelo de uso similar al de plataformas de redes sociales como Facebook y TikTok. Aunque los usuarios no pagan dinero por utilizar estas plataformas, compensan a los proveedores aceptando la transferencia de datos privados.
Las empresas también se sienten atraídas por las herramientas de IA
Las empresas los utilizan, por ejemplo, para ganar dinero con publicidad dirigida. De manera similar, un servicio de inteligencia artificial gratuito puede recopilar datos de dispositivos, almacenar indicaciones individuales y luego usar esos datos para entrenar su propio modelo. Si bien esto puede no parecer malicioso, precisamente por eso es tan importante saber qué está sucediendo y en qué medida el procesamiento de los datos recopilados para entrenar algoritmos generativos de IA plantea problemas de privacidad. Basta con suponer que una de estas empresas es pirateada y que los datos caen en manos equivocadas: entonces exactamente esa información individual se puede utilizar inteligentemente como arma.
Por supuesto, la IA también tiene ventajas. De hecho, muchas herramientas de IA son bastante potentes y pueden utilizarse de forma segura con las precauciones adecuadas. Los riesgos que surgen para las empresas durante el uso comercial dependen principalmente de las respectivas tareas, objetivos y datos utilizados. Cuando se trata de seguridad, todo comienza con una política, lo que significa que, en última instancia, las organizaciones deben definir pautas claras de IA adaptadas al caso de uso específico de su empresa. Una vez determinados, el siguiente paso es informar a los empleados y crear conciencia sobre los riesgos. También es importante adaptar las normas en consecuencia tan pronto como cambien las condiciones generales, por ejemplo en forma de nuevas regulaciones. En este contexto, la comunicación regular con los trabajadores es crucial”.
Más en WatchGuard.com
Acerca de WatchGuard WatchGuard Technologies es uno de los proveedores líderes en el campo de la seguridad de TI. La amplia cartera de productos abarca desde UTM (Gestión Unificada de Amenazas) altamente desarrollada y plataformas de cortafuegos de última generación hasta tecnologías y autenticación multifactor para una protección integral de WLAN y protección de puntos finales, así como otros productos específicos y servicios inteligentes relacionados con la seguridad de TI. Más de 250.000 clientes en todo el mundo confían en los sofisticados mecanismos de protección a nivel empresarial,