El chatbot OpenAI ChatGPT demuestra cómo la inteligencia artificial y el aprendizaje automático pueden determinar directamente la vida y la vida cotidiana. Los usuarios de TI avanzados utilizarán dichas herramientas para sus fines. Y con eso, por desgracia, también los ciberdelincuentes.
El modelo de IA ChatGPT de OpenAI se basa en el aprendizaje no supervisado. Con este enfoque de ML, un modelo de IA se alimenta con un gran conjunto de datos sin etiquetar. El vasto corpus de material de libros, artículos y sitios web se basa en fuentes anteriores a 2021 y no tiene conexiones a Internet actual. Pero eso ya es suficiente para aprender las estructuras del lenguaje natural y ofrecer respuestas a preguntas que parecen engañosamente humanas.
Los piratas informáticos también se benefician de las IA
Los piratas informáticos pueden beneficiarse de dicha ayuda, incluso si aún se requiere precaución con predicciones concretas sobre el uso. Cinco casos de ejemplo ya esbozan las posibilidades del futuro:
Suplantación de identidad automatizada:
Los piratas informáticos pueden usar ChatGPT para lanzar ataques de phishing automatizados que alcanzan un nuevo nivel. Los errores ortográficos y gramaticales, que anteriormente eran una indicación obvia de este tipo de ataques, ahora se pueden descartar. En vista del hecho de que los autores de muchos correos electrónicos de phishing no hablan ni inglés ni alemán como lengua materna, esto debería tener importantes consecuencias para la calidad de dichos correos electrónicos en todos los ámbitos. ChatGPT puede escribir mensajes con una gramática perfecta. El círculo de víctimas que pueden ser burladas se está expandiendo a pasos agigantados. Puede escribir código para automatizar el proceso de escritura.
fingimiento de identidades
ChatGPT puede imitar a personas u organizaciones reales de una manera engañosamente real. Esto fomentará el robo de identidad u otras formas de fraude. Los piratas informáticos usan el chatbot para enviar lo que parecen ser mensajes de un amigo o colega, solicitando información confidencial y, por lo tanto, obteniendo acceso a la cuenta de usuario de otra persona.
Ingeniería social
ChatGPT y otros chatbots de IA pueden hacer que los ataques de ingeniería social sean más específicos. Los piratas informáticos manipulan a los destinatarios con conversaciones aún más personalizadas y aparentemente legítimas. Hasta ahora, cierto grado de intimidad no era posible de manera realista sin contacto físico personal. A más tardar, este ya no es el caso cuando la herramienta utiliza información de Internet. Las respuestas del bot son tan humanas que apenas difieren de una respuesta humana.
apoyo falso
Las empresas utilizarán chatbots avanzados de IA para el contacto con sus clientes. Los piratas informáticos serán los oportunistas y actuarán ellos mismos, por ejemplo, con una imitación engañosamente similar de una apariencia bancaria fraudulenta y un servicio al cliente aparentemente humano. Una vez más, el objetivo es capturar información confidencial. El malware bancario ha sido pionero en el desarrollo de nuevos métodos de ataque en el pasado.
Desarrollo acelerado de ataques: hasta el código de ayuda
Forbes ya ha informado sobre los primeros casos. Aparentemente, los piratas informáticos usan el bot para escribir código malicioso para cifrar y filtrar datos. ChatGPT está familiarizado con los lenguajes de codificación más populares y podría reducir el tiempo para desarrollar ataques. Un pirata informático con el conocimiento especializado requerido sobre las vulnerabilidades de la red puede usar el bot para cerrar las brechas en su escritura de código más rápidamente. La ingeniería inversa de un ciberataque que ha tenido lugar puede ser más fácil. La IA puede ayudar a modificar el código, mejorarlo y adaptar mejor los ataques a un objetivo elegido.
ChatGPT aún no puede escribir código sin errores, pero puede ayudar. Es preocupante que las medidas de seguridad no sean necesariamente efectivas. El "interruptor de seguridad" se puede omitir. El cambio tiene como objetivo evitar que el modelo de IA escriba textos violentos, discriminatorios o sexualmente explícitos. Está diseñado para ayudar a identificar aquellas preguntas formuladas por el usuario que claramente buscan respuestas que tienen propósitos nefastos. El chatbot aún rechaza las solicitudes directas para escribir código Python para explotar una vulnerabilidad de Log4j. Sin embargo, un usuario informado puede eludir el mecanismo de protección. Por ejemplo, una posibilidad es hacer la misma pregunta en un idioma diferente. Encuentra pistas para hacer las preguntas correctas.
Un nuevo nivel en el futuro
Los ataques respaldados por IA alcanzarán un nuevo nivel en el futuro. Las víctimas deben sospechar más. Los correos electrónicos clásicos de phishing, que son el preludio discreto de muchos, si no la mayoría, de los ataques graves, son cada vez más engañosos. Por otro lado, solo la cautela o más economía de datos en Internet o en las redes sociales puede ayudar. El ciberfraude basado en el secuestro de una identidad se vuelve más engañoso en la medida en que los hackers tienen información sobre el supuesto remitente de un mensaje malicioso. Los chatbots que actúan como nuevos motores de búsqueda crean una nueva cualidad para los mecanismos de ataque existentes.
Más en Bitdefender.com
Acerca de Bitdefender Bitdefender es líder mundial en soluciones de ciberseguridad y software antivirus, y protege más de 500 millones de sistemas en más de 150 países. Desde su fundación en 2001, las innovaciones de la compañía han brindado regularmente excelentes productos de seguridad y protección inteligente para dispositivos, redes y servicios en la nube para clientes privados y empresas. Como proveedor elegido, la tecnología de Bitdefender se encuentra en el 38 por ciento de las soluciones de seguridad implementadas en el mundo y cuenta con la confianza y el reconocimiento de profesionales de la industria, fabricantes y consumidores por igual. www.bitdefender.de