O chatbot OpenAI ChatGPT prova como a inteligência artificial e o aprendizado de máquina podem determinar diretamente a vida e a vida cotidiana. Os usuários avançados de TI usarão essas ferramentas para seus propósitos. E com isso, infelizmente, os cibercriminosos também.
O modelo ChatGPT AI da OpenAI é baseado no aprendizado não supervisionado. Com essa abordagem de ML, um modelo de IA é alimentado com um grande conjunto de dados não rotulados. O vasto corpus de material de livros, artigos e sites é baseado em fontes anteriores a 2021 e não possui conexões com a internet atual. Mas isso já é suficiente para aprender as estruturas da linguagem natural e oferecer respostas a perguntas que parecem enganosamente humanas.
Os hackers também se beneficiam das IAs
Os hackers podem se beneficiar dessa ajuda, mesmo que ainda seja necessário cautela com previsões concretas sobre o uso. Cinco exemplos de casos já delineiam as possibilidades do futuro:
Phishing automatizado:
Os hackers podem usar o ChatGPT para lançar ataques de phishing automatizados que atingem um novo nível. Erros de ortografia e gramática, que anteriormente eram uma indicação óbvia de tais ataques, agora podem ser descartados. Tendo em vista que os autores de muitos e-mails de phishing não falam inglês nem alemão como língua materna, isso deve ter consequências importantes para a qualidade de tais e-mails em geral. ChatGPT pode escrever mensagens em gramática perfeita. O círculo de vítimas que podem ser enganadas está se expandindo aos trancos e barrancos. Ele pode escrever código para automatizar o processo de escrita.
fingimento de identidades
O ChatGPT pode imitar pessoas ou organizações reais de uma forma enganosamente real. Isso incentivará o roubo de identidade ou outras formas de fraude. Os hackers usam o chatbot para enviar o que parecem ser mensagens de um amigo ou colega, solicitando informações confidenciais e, assim, obtendo acesso à conta de usuário de outra pessoa.
Engenharia social
O ChatGPT e outros chatbots de IA podem tornar os ataques de engenharia social mais direcionados. Os hackers manipulam os destinatários com conversas ainda mais personalizadas e aparentemente legítimas. Até agora, um certo grau de intimidade não era realisticamente possível sem contato físico pessoal. No máximo, esse não é mais o caso quando a ferramenta usa informações da Internet. As respostas do bot são tão humanas que dificilmente diferem de uma resposta humana.
suporte falso
As empresas usarão chatbots avançados de IA para contato com o cliente. Os hackers serão os caronas e agirão por conta própria - por exemplo, com uma imitação enganosamente similar de uma aparência fraudulenta de banco e um atendimento ao cliente aparentemente humano. Novamente, o objetivo é capturar informações confidenciais. O malware bancário foi pioneiro no desenvolvimento de novos métodos de ataque no passado.
Desenvolvimento de ataque acelerado - até a ajuda do código
A Forbes já noticiou os primeiros casos. Aparentemente, os hackers usam o bot para escrever códigos maliciosos para criptografar e exfiltrar dados. O ChatGPT está familiarizado com as linguagens de codificação mais populares e pode reduzir o tempo para desenvolver ataques. Um hacker com o conhecimento especializado necessário de vulnerabilidades de rede pode usar o bot para fechar as lacunas em sua escrita de código mais rapidamente. A engenharia reversa de um ataque cibernético que ocorreu pode ser mais fácil. A IA pode ajudar a modificar o código, melhorá-lo e adaptar melhor os ataques a um alvo escolhido.
O ChatGPT ainda não pode escrever um código sem erros, mas pode ajudar. É preocupante que as medidas de segurança não sejam necessariamente eficazes. O "interruptor de segurança" pode ser ignorado. A mudança visa impedir que o modelo de IA escreva textos violentos, discriminatórios ou sexualmente explícitos. Ele é projetado para ajudar a identificar as perguntas feitas pelo usuário que estão claramente buscando respostas que servem a propósitos nefastos. O chatbot ainda recusa solicitações diretas para escrever código Python para explorar uma vulnerabilidade do Log4j. No entanto, um usuário experiente pode ignorar o mecanismo de proteção. Por exemplo, uma possibilidade é fazer a mesma pergunta em um idioma diferente. Ele encontra pistas para fazer as perguntas certas.
Um novo nível no futuro
Os ataques com suporte de IA atingirão um novo nível no futuro. As vítimas precisam ser mais desconfiadas. Os clássicos e-mails de phishing, que são o prelúdio discreto de muitos, senão da maioria, dos ataques sérios, estão se tornando cada vez mais enganosos. Por outro lado, só cautela ou mais economia de dados na internet ou nas redes sociais podem ajudar. A fraude cibernética baseada no sequestro de uma identidade torna-se mais enganosa na medida em que os hackers têm informações sobre o suposto remetente de uma mensagem maliciosa. Chatbots que agem como novos mecanismos de busca criam uma nova qualidade para os mecanismos de ataque existentes.
Mais em Bitdefender.com
Sobre o Bitdefender A Bitdefender é líder global em soluções de segurança cibernética e software antivírus, protegendo mais de 500 milhões de sistemas em mais de 150 países. Desde a sua fundação em 2001, as inovações da empresa fornecem regularmente excelentes produtos de segurança e proteção inteligente para dispositivos, redes e serviços em nuvem para clientes particulares e empresas. Como fornecedor preferido, a tecnologia da Bitdefender é encontrada em 38 por cento das soluções de segurança implantadas no mundo e é confiável e reconhecida por profissionais da indústria, fabricantes e clientes. www.bitdefender.de