Noticias

Últimas noticias sobre ciberseguridad B2B >>> Agencias de relaciones públicas: agréguenos a su lista de correo - ¡ver contacto! >>> ¡Reserve un PartnerChannel exclusivo para sus noticias!

Una evaluación de DeepSeek
Novedades de Sophos

Dado que DeepSeek se basa en código abierto, puede ser analizado e investigado tanto por personas con motivaciones criminales como por entusiastas neutrales. Al igual que con LLaMA de Meta, se puede experimentar libremente con DeepSeek y las barandillas de protección se pueden eliminar en gran medida. Esto podría dar lugar a un uso indebido por parte de delincuentes cibernéticos. Sin embargo, operar DeepSeek profesionalmente todavía requiere muchos más recursos de los que el cibercriminal promedio tiene a su disposición. Mucho más apremiante para las empresas es el hecho de que es probable que DeepSeek sea adoptado por diferentes productos y empresas debido a su relación costo-beneficio, lo que potencialmente plantea riesgos significativos para…

Más leído

Grandes modelos de lenguaje (LLM) y seguridad de los datos
Grandes modelos de lenguaje (LLM) y seguridad de los datos

Dado el rápido ritmo de desarrollo de la IA con los LLM, cada vez está más claro que las barreras de seguridad básicas, los controles de plausibilidad y las medidas de seguridad inmediatas actualmente vigentes son permeables e inadecuadas. Al desarrollar estrategias para mejorar la seguridad de los datos en las cargas de trabajo de IA, es crucial cambiar la perspectiva y ver a la IA como una persona vulnerable a los ataques de ingeniería social. Esta analogía puede ayudar a las empresas a comprender mejor las vulnerabilidades y amenazas que enfrentan los sistemas de inteligencia artificial y desarrollar medidas de seguridad más sólidas. Vast Data, proveedor de una plataforma de datos para cargas de trabajo de IA, explica los problemas de seguridad que rodean a los LLM: generativo moderno...

Más leído

LLM: herramienta de ajuste para grandes modelos de lenguaje de análisis
LLM: herramienta de ajuste para grandes modelos de lenguaje de análisis Imagen: Bing - AI

Los modelos de lenguaje grande (LLM) tienen el potencial de automatizar y reducir la carga de trabajo, incluida la de los analistas de ciberseguridad y los respondedores de incidentes. Sophos proporciona herramientas de ajuste para modelos de lenguaje de gran tamaño como programa de código abierto. Los LLM genéricos carecen del conocimiento específico del dominio para manejar bien todas las tareas. Incluso cuando se construye con datos de capacitación que incluyen recursos de ciberseguridad, esto a menudo no es suficiente para asumir tareas más especializadas que requieren conocimiento actual y, en algunos casos, propietario para desempeñarse bien, conocimiento que no está disponible para los LLM en su capacitación Eliminación...

Más leído

RAG: Las tecnologías innovadoras de IA conllevan peligros
RAG: Las tecnologías innovadoras de IA conllevan peligros Imagen: Bing - AI

Desde la introducción de ChatGPT 2022, cada vez más empresas quieren utilizar tecnologías de IA, a menudo con requisitos específicos. La recuperación de generación aumentada (RAG) es la tecnología preferida para desarrollar aplicaciones innovadoras basadas en datos privados. Pero los riesgos de seguridad, como el almacenamiento vectorial sin protección, la validación incorrecta de datos y los ataques de denegación de servicio, suponen una grave amenaza, especialmente teniendo en cuenta el rápido ciclo de desarrollo de los sistemas RAG. La innovadora tecnología de IA RAG requiere algunos ingredientes para funcionar: se necesita una base de datos con módulos de texto y una forma de recuperarlos. Para ello se suele utilizar una memoria vectorial, que contiene el texto y una serie de...

Más leído

Seguridad en soluciones de IA y modelos de lenguajes grandes
Seguridad en soluciones de IA y modelos de lenguajes grandes

Una empresa de gestión de exposición anunció el lanzamiento de AI Aware, una sofisticada capacidad de detección que puede determinar rápidamente si se están utilizando soluciones de inteligencia artificial y si existen vulnerabilidades y debilidades de seguridad relacionadas con la IA. Tenable AI Aware proporciona información sobre las vulnerabilidades de seguridad en aplicaciones, bibliotecas y complementos de IA para que las empresas puedan identificar y remediar con confianza los riesgos de IA sin afectar las operaciones comerciales. El rápido desarrollo y adopción de tecnologías de IA en los últimos dos años ha creado importantes riesgos de ciberseguridad y cumplimiento que las organizaciones deben abordar sin depender de mejores prácticas comprobadas...

Más leído

Deepfakes y ciberataques basados ​​en IA a empresas
Deepfakes y ciberataques basados ​​en IA a empresas Imagen: Bing - AI

Más defensa para todos los entornos contra la creciente amenaza de ataques e intentos de fraude utilizando inteligencia artificial (IA) y deepfakes. Trend Micro anuncia nuevas funciones para sus soluciones de ciberseguridad empresarial. Los deepfakes (imágenes, grabaciones de audio o vídeo que parecen engañosamente reales y manipulados con la ayuda de inteligencia artificial) representan un riesgo importante para empresas y particulares. Si se produce fraude utilizando deepfakes no detectados, esto puede provocar pérdidas económicas, daños a la reputación y problemas legales. , pérdida de empleo, robo de identidad e incluso daños a la salud física o mental de los afectados. En un estudio reciente realizado por Trend Micro, 36…

Más leído

Desarrollo RAG en tan solo unos minutos

Playground es la nueva interfaz de usuario de bajo código de Elastic, la empresa de inteligencia artificial de búsqueda. Esto permite a los desarrolladores utilizar Elasticsearch para crear aplicaciones RAG para LLM (modelos de lenguajes grandes) en solo unos minutos. Gracias a la guía de usuario autoexplicativa, los equipos de desarrollo pueden realizar pruebas A/B con diferentes LLM (Large Language Models). También pueden perfeccionar los mecanismos de recuperación de datos que extraen datos de los conjuntos de datos propietarios en los índices de Elasticsearch, que a su vez forman la base para las respuestas a las solicitudes. Interfaz de usuario de código bajo “Al crear prototipos de búsqueda conversacional, es importante poder experimentar con componentes clave de los flujos de trabajo de RAG y utilizarlos como base para una iteración rápida,...

Más leído

Evite los riesgos y abusos del LLM
Evitar los riesgos y abusos del LLM - Imagen de Tung Nguyen en Pixabay

Solo con controles de productos y contramedidas SOC se pueden introducir LLM de manera segura. Con la Evaluación de seguridad de LLM: la guía definitiva para evitar riesgos y abusos, Elastic ha publicado los últimos resultados de investigación de sus laboratorios de seguridad. La evaluación de seguridad de LLM examina la seguridad de los modelos de lenguajes grandes (LLM). Recomienda mejores prácticas para mitigar los ataques y medidas para prevenir el uso indebido de LLM. Las implementaciones de IA generativa y LLM han aumentado significativamente en los últimos 18 meses y se están implementando lo más rápido posible en algunas empresas. Esto ha aumentado la superficie de ataque. Al mismo tiempo, falta…

Más leído

Herramientas de ataque eficientes: cómo los piratas informáticos utilizan los LLM de IA para sus propios fines

El uso de la IA puede automatizar tareas rutinarias, hacer que los procesos sean más eficientes y aumentar la productividad. Esto se aplica tanto a la economía legal como, lamentablemente, al cibercrimen organizado. Los grandes modelos de lenguaje (LLM) en particular son utilizados por actores criminales, no tanto como tecnologías visionarias y versátiles, sino más bien como herramientas eficientes para mejorar los ataques estándar. Los modelos de lenguajes grandes (LLM) como ChatGPT han estado en el ojo público desde finales de 2022. Esto plantea la cuestión de qué efectos tienen en la ciberseguridad si los piratas informáticos los utilizan indebidamente para crear contenido malicioso. Al utilizar LLM...

Más leído