Jailbreak de chatbots baseados em IA
A empresa de segurança cibernética por trás da exposição do WormGPT publicou uma postagem no blog. Isso fornece informações sobre as estratégias usadas por cibercriminosos que fazem “jailbreak” de chatbots de IA populares como o ChatGPT. Refere-se a táticas que contornam os limites de segurança que as empresas impõem aos seus chatbots. Os pesquisadores do SlashNext descobriram que os cibercriminosos não compartilham apenas seus jailbreaks bem-sucedidos em fóruns de discussão para torná-los acessíveis a outras pessoas. Em vez disso, os desenvolvedores também estão promovendo bots de IA que podem ser usados para fins criminosos. Eles afirmam que estes são modelos de linguagem personalizados (LLMs). SlashNext confirmou que isso está em…