Deepfakes de áudio, ou seja, vozes imitadas com sistemas de computador, estão em constante evolução. Isso resulta em um aumento nas tentativas de fraude com suporte de IA.
Já é bastante conhecido o chamado “truque do neto”, em que o perpetrador costuma se passar por filho ou neto da vítima e simular uma situação de crise para obter apoio financeiro. Agora, porém, utiliza-se a inteligência artificial especializada em imitar vozes, essas IAs às vezes precisam de apenas 30 minutos de material de áudio e podem usá-lo para criar um perfil de voz completo com o qual essa pessoa pode ser personificada. Com o uso de IA generativa, isso funciona muito bem. Obter o áudio de que você precisa agora também é mais fácil do que nunca. As redes sociais tornam isso possível.
A voz de imitação é a mesma que a original
Já existem muitos relatos, antes mesmo da disponibilidade da IA generativa, de tais tentativas de fraude no ambiente corporativo, como evidenciado por um incidente nos Emirados Árabes Unidos em 2021. E muitos também caem nessa porque grande parte não consegue distinguir a voz imitada da original. Quanto mais material a IA tiver à sua disposição, mais difícil se torna detectar anormalidades na voz imitada.
O relatório Beware the Artificial Impostor, da McAfee, descobriu que 25% dos entrevistados em todo o mundo disseram ter recebido ou conhecido alguém que recebeu uma chamada fraudulenta usando uma voz semelhante a uma IA. Com serviços online como os da Eleven Labs que oferecem clonagem de voz instantânea para criar uma voz sintética a partir de 30 minutos de amostras de áudio, é apenas uma questão de tempo até que os agentes de ameaças explorem ainda mais as tentativas de fraude baseadas em voz de IA. De acordo com o relatório, quase metade (48%) dos entrevistados ajudaria se recebessem uma ligação sobre um acidente de carro, 47% ajudariam se fossem chamados sobre um roubo, 43% se perdessem a carteira e 41% se eles precisavam de ajuda durante as férias.
Poucos podem dizer a diferença
70 por cento também disseram que não podiam dizer se a voz era real ou não. Portanto, a única pista real sobre se uma chamada é uma farsa ou não é o fato de que a chamada em si é inesperada. Os usos potenciais para esse tipo de fraude no mundo dos negócios variam de fraude de vale-presente de CEO a golpes digitais e muito mais – todos exigindo que os usuários participem continuamente do treinamento de conscientização de segurança dentro da organização para que permaneçam vigilantes, mesmo quando a voz a outra extremidade do telefone soa familiar.
Mais em KnowBe4.com
Sobre a KnowBe4 KnowBe4, provedor da maior plataforma mundial para treinamento de conscientização de segurança e phishing simulado, é usado por mais de 60.000 empresas em todo o mundo. Fundada pelo especialista em TI e segurança de dados Stu Sjouwerman, a KnowBe4 ajuda as organizações a abordar o elemento humano da segurança, aumentando a conscientização sobre ransomware, fraude de CEO e outras táticas de engenharia social por meio de uma nova abordagem para educação em segurança. Kevin Mitnick, um especialista em segurança cibernética reconhecido internacionalmente e Chief Hacking Officer da KnowBe4, ajudou a desenvolver o treinamento da KnowBe4 com base em suas táticas de engenharia social bem documentadas. Dezenas de milhares de organizações contam com o KnowBe4 para mobilizar seus usuários finais como última linha de defesa.
Artigos relacionados ao tema