Sistemas generativos de IA como o ChatGPT recebem muita atenção e são alimentados com dados por milhares de usuários todos os dias, desrespeitando a proteção de dados.
Mais e mais empresas estão usando as tecnologias e usando-as para uma ampla variedade de projetos e processos. As ferramentas são usadas principalmente para coletar informações, escrever textos e traduzir.
Infelizmente, muitos usuários não são muito atenciosos com os dados confidenciais da empresa e deixam a IA trabalhar para eles. Essa prática pode causar sérios danos consequentes, uma vez que esses dados podem ser recuperados e extraídos sem controle por qualquer outro usuário que apenas faça as perguntas certas. Agora, eles podem ser vendidos para outras empresas ou criminosos cibernéticos e usados indevidamente para vários fins nefastos.
Um exemplo de como isso pode funcionar seria o seguinte: um médico insere o nome de um paciente e os detalhes de sua condição no ChatGPT para que a ferramenta possa redigir uma carta para a companhia de seguros do paciente. No futuro, se um terceiro perguntar ao ChatGPT: "Qual é o problema de saúde do [nome do paciente]?", o chatbot poderá responder com base nas informações fornecidas pelo médico. Esses riscos são uma ameaça tão grande quanto os ataques de phishing, porque é claro que também é possível tirar conclusões sobre empresas inteiras e suas práticas de negócios a partir de indivíduos individuais.
Dados pessoais são tabu
Se os funcionários tiverem permissão para usar as ferramentas de IA, eles devem garantir que não insiram nenhum dado pessoal ou informação interna da empresa ou incluam em suas consultas. Eles também devem garantir que as informações fornecidas nas respostas também estejam livres de dados pessoais e internos da empresa. Todas as informações devem ser verificadas de forma independente para proteger contra reivindicações legais e evitar uso indevido.
O treinamento de conscientização de segurança pode ajudar os funcionários a aprender como usar o ChatGPT e outras ferramentas de IA geradoras de forma responsável e segura para o trabalho. Eles aprendem quais informações podem e não podem divulgar para que eles e suas empresas não corram o risco de dados confidenciais serem mal utilizados por terceiros indesejados. Caso contrário, as consequências seriam multas de acordo com o GDPR e os danos à imagem associados, incluindo ataques cibernéticos por meio de engenharia social. Neste último caso, os invasores usariam as informações compartilhadas com as ferramentas para suas pesquisas, para explorar os pontos fracos dos sistemas de TI ou para usar o spear phishing para persuadir os funcionários a clicar em links armazenados em e-mails.
Mais em KnowBe4.com
Sobre a KnowBe4 KnowBe4, provedor da maior plataforma mundial para treinamento de conscientização de segurança e phishing simulado, é usado por mais de 60.000 empresas em todo o mundo. Fundada pelo especialista em TI e segurança de dados Stu Sjouwerman, a KnowBe4 ajuda as organizações a abordar o elemento humano da segurança, aumentando a conscientização sobre ransomware, fraude de CEO e outras táticas de engenharia social por meio de uma nova abordagem para educação em segurança. Kevin Mitnick, um especialista em segurança cibernética reconhecido internacionalmente e Chief Hacking Officer da KnowBe4, ajudou a desenvolver o treinamento da KnowBe4 com base em suas táticas de engenharia social bem documentadas. Dezenas de milhares de organizações contam com o KnowBe4 para mobilizar seus usuários finais como última linha de defesa.