Fraude generado por IA: Cómo prevenir deepfakes, voces de IA y perfiles falsos

Anzeige

Compartir publicación

Las IA generan todo para el usuario, incluido mucho contenido para fraudes, como deepfakes, voces de IA o perfiles falsos. Los usuarios pueden ser engañados perfectamente por esto: sólo los buenos sistemas no pueden hacerlo. Sólo una combinación de diferentes medidas puede ayudar contra el fraude generado por IA: personas, procesos y tecnología.

Desde que surgió la IA generativa hace dos años, ha capturado la imaginación de las personas y está penetrando cada vez en más áreas de la vida, con numerosas ventajas, por supuesto, pero también nuevos riesgos. Los investigadores de seguridad de Trend Micro también ven a la IA como un impulsor clave de la actividad delictiva en 2025. El fraude generado por IA está evolucionando rápidamente y es cada vez más difícil de detectar. El FBI también advierte que los estafadores utilizan cada vez más inteligencia artificial para mejorar la calidad y la eficacia de sus estafas en línea y reducir el tiempo y el esfuerzo que dedican a engañar a sus objetivos. Así lo afirma Tobias Grabitz, director de Relaciones Públicas y Comunicaciones de Trend Micro.

Anzeige

Las múltiples caras del fraude de IA

Las tecnologías basadas en IA, como las herramientas de IA generativa, son herramientas legales que respaldan la creación de contenido. Sin embargo, en manos de delincuentes, se utilizan para facilitar delitos como el fraude y la extorsión. Estas actividades potencialmente maliciosas incluyen el uso indebido de textos, imágenes, audios y vídeos.

Reportado recientemente Google Mandiant afirma que los profesionales de TI de Corea del Norte utilizan IA para crear personajes e imágeneshaciéndose pasar por no norcoreanos para obtener empleo en organizaciones de todo el mundo. Una vez que esto funciona, estos individuos generan ingresos para el régimen norcoreano, se dedican al espionaje cibernético o incluso intentan difundir malware para robar información en las redes corporativas.

Anzeige

🔎 Protección a todos los niveles: Interacción de diferentes medidas: personas, procesos y tecnología (Imagen: Trend Micro).

Los deepfakes se encuentran entre los métodos delictivos más utilizados. Estos vídeos generados por IA pueden retratar a las personas de una manera engañosamente real y poner palabras en sus bocas. Se utilizan para campañas de desinformación, chantajes, robo de identidad o incluso transacciones financieras fraudulentas.

Los clones de voz también son populares: las voces se pueden recrear utilizando IA. Los estafadores utilizan el vishing (phishing de voz) para hacerse pasar por familiares, socios comerciales o funcionarios del gobierno por teléfono con el fin de obtener información confidencial o dinero.

Los perfiles falsos automatizados generados por IA en las redes sociales pueden usarse para ingeniería social, difundir información errónea o incluso cometer fraude financiero. Los chatbots impulsados ​​por IA también pueden engañar a los usuarios en tiendas online falsas o en sitios web fraudulentos para obtener información personal o de pago.

Por último, la IA se puede utilizar para crear correos electrónicos de phishing personalizados y convincentes que sean difíciles de distinguir de los mensajes genuinos. Ahora estos correos electrónicos pueden personalizarse aún más específicamente para las víctimas, lo que dificulta su detección. Por último, pero no por ello menos importante, las herramientas de IA también son útiles para falsificar documentos, por ejemplo, para solicitudes de empleo o de préstamos falsas.

Protección a todos los niveles

La lucha contra el fraude generado por IA requiere una combinación de medidas: se deben tener en cuenta las personas, los procesos y la tecnología.

Menschen

🔎 Protección a todos los niveles: Interacción de diferentes medidas: personas, procesos y tecnología (Imagen: Trend Micro).

Concienciación y alfabetización mediática: es crucial contar con una educación amplia sobre las posibilidades de la manipulación basada en IA. Los usuarios deben aprender a manejar la información de forma crítica y cuestionar el contenido. La capacitación tradicional sobre concientización sobre phishing, que se centraba en el lenguaje incorrecto, la gramática y la ortografía deficientes y las URL sospechosas como indicadores, ya no es suficiente. Se recomiendan simulaciones de ataques modernos y cursos de capacitación que se centren en nuevas amenazas y el comportamiento de los atacantes. Esto también incluye promover la alfabetización mediática para identificar mejor el contenido falso.

El FBI también recomienda:

  • Sea escéptico ante solicitudes inesperadas y verifique la información directamente con la fuente.
  • Los destinatarios también deben prestar atención a las imperfecciones sutiles en las imágenes/vídeos (por ejemplo, posiciones de manos poco naturales, irregularidades faciales, sombras extrañas o movimientos poco realistas).
  • Al realizar llamadas, verifique el tono de voz poco natural o la elección de palabras para detectar la clonación de voz generada por IA.
  • Por último, ayuda limitar el contenido de acceso público de sus propias imágenes/voz, configurar las cuentas de redes sociales como privadas y restringir los seguidores a personas de confianza.
  • Enfoque de confianza cero: el principio detrás de esto es no confiar en nadie por defecto y verificar constantemente las identidades y el contenido.

procesos

🔎 Protección a todos los niveles: Interacción de diferentes medidas: personas, procesos y tecnología (Imagen: Trend Micro).

Es necesario repensar la verificación: La verificación de transacciones financieras o contratos a través de llamadas de verificación desde números en listas está obsoleta debido al vishing impulsado por inteligencia artificial. Se recomienda crear una lista predefinida de partes interesadas, solicitar el consentimiento de varias partes interesadas y utilizar un lenguaje codificado que solo se use dentro de su propia empresa. Para las personas, el FBI recomienda acordar una palabra o frase secreta con la familia para verificar la autenticidad de la persona que llama.

Una política para GenAI: Una política a nivel de toda la empresa para el uso de IA generativa puede hacer cumplir las medidas para la seguridad del uso de la IA.

Tecnología

Métodos de autenticación: Los métodos de autenticación más fuertes, como la autenticación de dos factores, pueden dificultar el acceso a cuentas confidenciales.

Detección de deepfakes: Las herramientas que pueden detectar automáticamente deepfakes aún están en desarrollo y no siempre funcionan de manera confiable. Trend Micro está investigando activamente esta área para desarrollar métodos de detección efectivos.

Detección de fraude basada en IA: La IA también se puede utilizar para detectar fraudes analizando patrones en grandes cantidades de datos e identificando actividades sospechosas. Trend Micro ofrece ScamCheck, una solución para usuarios privados basada en inteligencia artificial.

Seguridad avanzada del correo electrónico: Las soluciones de seguridad del correo electrónico deben ir más allá de las puertas de enlace tradicionales. Para detectar páginas de inicio de sesión falsas, por ejemplo, el análisis del estilo de escritura y la visión artificial pueden desempeñar un papel importante, porque la tecnología puede “ver” hasta el nivel de píxeles individuales.

Conclusión

El fraude generado por IA es una amenaza grave que nos afecta a todos. Al combinar soluciones técnicas, procesos claros, educación y vigilancia, tanto los consumidores como las empresas pueden protegerse mejor contra la creciente amenaza. Es importante ser consciente de los riesgos y manejar la información de forma crítica. El desarrollo constante de la IA requiere que adaptemos continuamente nuestras medidas de protección para estar un paso por delante de los estafadores.

Más en TrendMicro.com

 


Acerca de Trend Micro

Como uno de los principales proveedores de seguridad de TI del mundo, Trend Micro ayuda a crear un mundo seguro para el intercambio de datos digitales. Con más de 30 años de experiencia en seguridad, investigación de amenazas globales e innovación constante, Trend Micro ofrece protección para empresas, agencias gubernamentales y consumidores. Gracias a nuestra estrategia de seguridad XGen™, nuestras soluciones se benefician de una combinación intergeneracional de técnicas de defensa optimizadas para entornos de vanguardia. La información de amenazas en red permite una protección mejor y más rápida. Optimizadas para cargas de trabajo en la nube, terminales, correo electrónico, IIoT y redes, nuestras soluciones conectadas brindan visibilidad centralizada en toda la empresa para una detección y respuesta más rápidas a las amenazas.


 

Artículos relacionados con el tema

Más de 130.000 filtraciones de datos en Europa en 2024

En 15 países europeos, en 2024 se produjeron más de 365 violaciones de protección de datos cada día, según los resultados de un análisis reciente. En Alemania ➡ Leer más

Ataques DDoS: el medio más importante de guerra cibernética

En la segunda mitad de 2024, hubo al menos 8.911.312 ataques DDoS en todo el mundo, según los resultados de un reciente Informe de inteligencia de amenazas DDoS. ➡ Leer más

Ciberdelincuencia: el movimiento clandestino rusoparlante lidera

Un nuevo informe de investigación ofrece una visión exhaustiva del mundo cibernético clandestino de habla rusa. Este ecosistema ha tenido un impacto significativo en el cibercrimen global en los últimos tiempos. ➡ Leer más

Ley de Ciberresiliencia: Las empresas deben actuar ahora

La Ley de Resiliencia Cibernética (CRA) está avanzando a grandes pasos. Para los fabricantes, esto significa que los dispositivos con vulnerabilidades de seguridad explotables pronto ya no estarán disponibles. ➡ Leer más

El uso de herramientas de IA/ML aumentó en un 3000 por ciento

Las herramientas de IA/ML son populares, según los resultados de un informe reciente sobre amenazas. Sin embargo, un uso creciente también conlleva riesgos de seguridad. Ciberdelincuentes ➡ Leer más

Vishing: los delincuentes recurren a ataques de phishing de voz

Utilizando deepfakes creados por IA, los ciberdelincuentes imitan voces confiables. El vishing se ha disparado en la segunda mitad de 2024, según los resultados de un ➡ Leer más

Índice de confianza digital: la confianza en los servicios digitales está disminuyendo

La confianza digital o el miedo a una filtración de datos influyen en si los consumidores recurren a las marcas o las abandonan, según los resultados ➡ Leer más

La seguridad del software es inadecuada en la mitad de las empresas

La 15ª edición del "Informe sobre el estado de la seguridad del software", que se basa en un conjunto de datos exhaustivo de 1,3 millones de aplicaciones individuales y 126,4 millones ➡ Leer más