Hacer jailbreak a chatbots basados en IA
La empresa de ciberseguridad detrás de la exposición de WormGPT ha publicado una entrada en su blog. Esto proporciona información sobre las estrategias utilizadas por los ciberdelincuentes que hacen jailbreak a chatbots de IA populares como ChatGPT. Se refiere a tácticas que eluden los límites de seguridad que las empresas imponen a sus chatbots. Los investigadores de SlashNext han descubierto que los ciberdelincuentes no se limitan a compartir sus jailbreaks exitosos en foros de discusión para hacerlos accesibles a otros. En cambio, los desarrolladores también están promoviendo robots de inteligencia artificial que pueden usarse con fines delictivos. Afirman que se trata de modelos de lenguaje personalizados (LLM). SlashNext ha confirmado que esto está en…