28 de janeiro de 2024 é o Dia Europeu da Proteção de Dados. Neste contexto, é importante aumentar a sensibilização para a privacidade e proteção de dados e aumentar a sensibilização para questões relevantes de segurança informática – independentemente de dizerem respeito ao ambiente privado ou corporativo.
Os avanços em inteligência artificial (IA) e aprendizado de máquina (ML) estão no Dia da Proteção de Dados de 2024 uma questão óbvia - tanto pelos potenciais benefícios que tais ferramentas trazem consigo como pelos perigos que lhes estão associados, que são certamente uma fonte de preocupação. De acordo com Carla Roncato, vice-presidente de identidade da WatchGuard Technologies.
IA como uma ameaça à proteção de dados
Dada a adoção generalizada de ferramentas de IA apenas no ano passado, é fundamental que a WatchGuard, como representante da comunidade de segurança de TI, aproveite esta oportunidade para defender os riscos que a IA representa para a proteção dos nossos dados. disso. A IA está cada vez mais presente na nossa vida quotidiana e, não menos importante, afeta o nosso direito à proteção de dados.
As empresas e os utilizadores individuais nunca devem esquecer uma coisa: se um serviço que utilizam é “gratuito”, então, no final, são provavelmente os dados que estão a ser acedidos como um “preço” em troca. Isto também se aplica às ferramentas de IA, pelo que todos devem agir em conformidade. Muitos dos primeiros serviços e aplicações de IA – incluindo o ChatGPT – utilizam um modelo de utilização semelhante ao das plataformas de redes sociais, como o Facebook e o TikTok. Embora os utilizadores não paguem qualquer dinheiro para utilizar estas plataformas, compensam os fornecedores concordando com a transferência de dados privados.
As empresas também são atraídas por ferramentas de IA
As empresas utilizam-nos, por exemplo, para ganhar dinheiro com publicidade direcionada. Da mesma forma, um serviço gratuito de IA pode coletar dados de dispositivos, armazenar prompts individuais e, em seguida, usar esses dados para treinar seu próprio modelo. Embora isto possa não parecer malicioso, é precisamente por isso que é tão importante saber o que está a acontecer e até que ponto o processamento dos dados recolhidos para treinar algoritmos generativos de IA levanta questões de privacidade. Basta supor que uma dessas empresas seja hackeada e os dados caiam em mãos erradas: então, exatamente essas informações individuais podem ser habilmente usadas como arma.
É claro que a IA também tem vantagens. Na verdade, muitas ferramentas de IA são bastante poderosas e podem ser usadas com segurança com as devidas precauções. Os riscos que surgem para as empresas no decurso da utilização comercial dependem principalmente das respetivas tarefas, objetivos e dados utilizados. Quando se trata de segurança, tudo começa com uma política, o que significa que as organizações precisam, em última análise, definir diretrizes claras de IA adaptadas ao caso de uso específico da sua empresa. Uma vez determinados, o próximo passo é informar os colaboradores e conscientizá-los sobre os riscos. É também importante adaptar as regras em conformidade assim que as condições gerais mudarem, por exemplo sob a forma de novos regulamentos. A comunicação regular com a força de trabalho é crucial neste contexto.”
Mais em WatchGuard.com
Sobre a WatchGuard A WatchGuard Technologies é um dos fornecedores líderes na área de segurança de TI. O extenso portfólio de produtos varia de UTM (Unified Threat Management) altamente desenvolvido e plataformas de firewall de última geração a autenticação multifator e tecnologias para proteção abrangente de WLAN e proteção de endpoint, bem como outros produtos específicos e serviços inteligentes relacionados à segurança de TI. Mais de 250.000 clientes em todo o mundo confiam nos sofisticados mecanismos de proteção em nível empresarial,