
Una nueva encuesta entre piratas informáticos muestra que la IA no sólo ayuda a los piratas informáticos a ser más eficientes, sino que la propia IA está "madura para la explotación". Es raro preguntarle a un hacker: "¿Qué opinas?" sobre los ciberataques, los esfuerzos de ciberseguridad y el futuro que les espera.
Sin embargo, el informe Inside the Mind of a Hacker 2024 de Bugcrowd contiene una gran cantidad de datos sobre cómo los piratas informáticos ven la IA y su valor para ellos.
- 74% de los hackers creen que la IA ha hecho que la piratería sea más accesible.
- 86% Creo que la IA ha cambiado fundamentalmente la forma en que abordan la piratería.
- 77% Utilice tecnologías de inteligencia artificial para piratear.
- 82% creen que el panorama de amenazas de la IA está evolucionando demasiado rápido como para protegerse adecuadamente.
- 93% Creo que las empresas que utilizan herramientas de inteligencia artificial han abierto una nueva vía de ataque para los piratas informáticos.
Las dos últimas estadísticas están respaldadas por tendencias observadas en cosas tan simples como el aumento de estafas "gpt", dominios falsos y ataques de phishing, todo lo cual está impulsado por el creciente interés de las empresas en utilizar la IA generativa para acelerar sus negocios. Dado que los actores de amenazas explotan específicamente los vectores de ataque centrados en la IA, un solo correo electrónico de phishing, combinado con el interés del destinatario en la IA generativa, puede conducir a un ataque exitoso. Por tanto, las empresas deben preparar a sus empleados para estas nuevas amenazas mediante formación en seguridad y promover su vigilancia.
Gestión del riesgo humano contra hackers
La gestión de riesgos humanos es cada vez más importante a la luz de los nuevos riesgos que plantean los vectores de ataque basados en IA. Si bien las herramientas de inteligencia artificial ofrecen nuevas oportunidades para explotar las vulnerabilidades de seguridad, los empleados suelen seguir siendo la primera y más eficaz línea de defensa contra dichos ataques. La IA puede atacar directamente las vulnerabilidades humanas mediante ataques de phishing dirigidos, tecnologías deepfake o la automatización de ataques de ingeniería social. Aquí es exactamente donde entra en juego la gestión de riesgos humanos: a través de medidas continuas de formación y sensibilización, los empleados pueden reconocer las amenazas basadas en la IA y responder a ellas de forma proactiva. De esta manera, el componente humano se convierte en una capa protectora activa que impide que los atacantes exploten con éxito la IA generativa y otras tecnologías en sus ataques.
Más en KnowBe4.com
Acerca de KnowBe4 KnowBe4, proveedor de la plataforma más grande del mundo para capacitación en concientización sobre seguridad y phishing simulado, es utilizado por más de 60.000 empresas en todo el mundo. Fundada por el especialista en seguridad de datos y TI Stu Sjouwerman, KnowBe4 ayuda a las organizaciones a abordar el elemento humano de la seguridad creando conciencia sobre el ransomware, el fraude de los directores ejecutivos y otras tácticas de ingeniería social a través de un nuevo enfoque para la educación en seguridad. Kevin Mitnick, un especialista en seguridad cibernética reconocido internacionalmente y Director de Hacking de KnowBe4, ayudó a desarrollar la capacitación KnowBe4 basada en sus bien documentadas tácticas de ingeniería social. Decenas de miles de organizaciones confían en KnowBe4 para movilizar a sus usuarios finales como última línea de defensa.