Nouvelles - LIB industry

Dernières actualités sur la cybersécurité B2B >>> Agences RP : ajoutez-nous à votre liste de diffusion - voir contact ! >>> Réservez un PartnerChannel exclusif pour votre actualité !

Vulnérabilités de l'IA : la compétition entre hackers s'attaque aux IA et aux LLM
Vulnérabilités de l'IA : la concurrence entre hackers s'attaque aux IA et aux LLM Image : Bing - AI

Lors du prochain concours Pwn2Own, qui se tiendra du 15 au 17 mai 2025 à Berlin, des hackers éthiques attaqueront les failles de sécurité des systèmes d'IA, exploitant souvent les vulnérabilités zero-day de la technologie de l'IA. Le concours Pwn2Own rassemble une fois de plus des hackers éthiques du monde entier – cette fois à Berlin. La compétition de piratage informatique, qui se déroule du 15 au 17 mai, est entièrement consacrée à l’intelligence artificielle (IA). L'objectif de l'événement, organisé par le fabricant de sécurité Trend Micro, est de renforcer la sécurité de l'IA en permettant aux pirates éthiques d'identifier et de divulguer de manière responsable les vulnérabilités zero-day dans les technologies d'IA. Les analystes du secteur mettent de plus en plus en garde contre les risques de sécurité…

lire plus

Une évaluation de DeepSeek
Actualités Sophos

Parce que DeepSeek est basé sur l'open source, il peut être sondé et étudié aussi bien par des individus à motivation criminelle que par des passionnés neutres. Comme avec LLaMA de Meta, DeepSeek peut être expérimenté librement et les garde-fous peuvent être en grande partie supprimés. Cela pourrait conduire à des abus de la part des cybercriminels. Cependant, exploiter DeepSeek de manière professionnelle nécessite toujours bien plus de ressources que celles dont dispose le cybercriminel moyen. Ce qui est encore plus urgent pour les entreprises, c’est que DeepSeek est susceptible d’être adopté par différents produits et entreprises en raison de sa rentabilité, ce qui peut présenter des risques importants pour l’entreprise.

lire plus

Grands modèles de langage (LLM) et sécurité des données
Grands modèles de langage (LLM) et sécurité des données

Compte tenu du rythme rapide du développement de l’IA avec les LLM, il devient de plus en plus clair que les garde-fous de base, les contrôles de plausibilité et les mesures de sécurité basées sur des invites actuellement en place sont perméables et inadéquats. Lors de l’élaboration de stratégies visant à améliorer la sécurité des données dans les charges de travail d’IA, il est crucial de changer de perspective et de considérer l’IA comme une personne vulnérable aux attaques d’ingénierie sociale. Cette analogie peut aider les entreprises à mieux comprendre les vulnérabilités et les menaces auxquelles sont confrontés les systèmes d’IA et à développer des mesures de sécurité plus robustes. Vast Data, fournisseur d'une plate-forme de données pour les charges de travail d'IA, explique les problèmes de sécurité entourant les LLM : Modern générative...

lire plus

LLM : outil de réglage pour les grands modèles de langage d'analyse
LLM : outil de réglage pour les grands modèles de langage d'analyse Image : Bing - AI

Les grands modèles linguistiques (LLM) ont le potentiel d’automatiser et de réduire la charge de travail, y compris celle des analystes de cybersécurité et des intervenants en cas d’incident. Sophos fournit des outils de réglage pour les grands modèles de langage en tant que programme open source. Les LLM génériques ne disposent pas des connaissances spécifiques au domaine nécessaires pour bien gérer toutes les tâches. Même lorsqu'ils sont construits avec des données de formation incluant des ressources de cybersécurité, cela n'est souvent pas suffisant pour assumer des tâches plus spécialisées qui nécessitent des connaissances actuelles et, dans certains cas, des connaissances exclusives pour bien fonctionner - des connaissances qui ne sont pas disponibles pour les LLM dans leur formation.

lire plus

RAG : Les technologies innovantes d’IA comportent des dangers
RAG : Les technologies innovantes d’IA comportent des dangers Image : Bing - AI

Depuis l'introduction de ChatGPT 2022, de plus en plus d'entreprises souhaitent utiliser les technologies d'IA - souvent avec des exigences spécifiques. Retrieval Augmented Generation (RAG) est la technologie privilégiée pour développer des applications innovantes basées sur des données privées. Mais les risques de sécurité tels que le stockage vectoriel non protégé, la validation incorrecte des données et les attaques par déni de service constituent une menace sérieuse, en particulier compte tenu du cycle de développement rapide des systèmes RAG. La technologie d'IA innovante RAG nécessite quelques ingrédients pour fonctionner : une base de données avec des modules de texte et un moyen de les récupérer sont nécessaires. Pour cela, on utilise généralement une mémoire vectorielle, qui contient le texte et une série de...

lire plus

Sécurité dans les solutions d'IA et les grands modèles de langage
Sécurité dans les solutions d'IA et les grands modèles de langage

Une société de gestion des risques a annoncé le lancement d'AI Aware, une capacité de détection sophistiquée qui peut déterminer rapidement si des solutions d'intelligence artificielle sont utilisées et s'il existe des vulnérabilités et des faiblesses de sécurité liées à l'IA. Tenable AI Aware fournit des informations sur les vulnérabilités de sécurité des applications, bibliothèques et plugins d'IA afin que les entreprises puissent identifier et corriger en toute confiance les risques liés à l'IA sans impact sur leurs opérations commerciales. Le développement et l'adoption rapides des technologies d'IA au cours des deux dernières années ont créé des risques majeurs en matière de cybersécurité et de conformité auxquels les organisations doivent faire face sans s'appuyer sur les meilleures pratiques éprouvées...

lire plus

Deepfakes et cyberattaques basées sur l’IA contre les entreprises
Deepfakes et cyberattaques basées sur l'IA contre les entreprises Image : Bing - AI

Plus de défense pour tous les environnements contre la menace croissante d’attaques et de tentatives de fraude utilisant l’intelligence artificielle (IA) et les deepfakes. Trend Micro annonce de nouvelles fonctionnalités pour ses solutions de cybersécurité d'entreprise. Les deepfakes (images, enregistrements audio ou vidéo d'apparence trompeusement réelle, manipulés à l'aide de l'intelligence artificielle) représentent un risque important pour les entreprises et les particuliers. Si une fraude se produit à l'aide de deepfakes non détectés, cela peut entraîner des pertes financières, des atteintes à la réputation, des problèmes juridiques, etc. perte d'emploi, usurpation d'identité et même atteinte à la santé mentale ou physique des personnes concernées. Dans une étude récente menée par Trend Micro, 36…

lire plus

Développement RAG en quelques minutes seulement

Playground est la nouvelle interface utilisateur low-code d'Elastic, la société d'IA de recherche. Cela permet aux développeurs d'utiliser Elasticsearch pour créer des applications RAG pour les LLM (Large Language Models) en quelques minutes seulement. Grâce aux instructions d'utilisation explicites, les équipes de développement peuvent effectuer des tests A/B avec différents LLM (Large Language Models). Ils peuvent également affiner les mécanismes de récupération de données qui extraient les données des ensembles de données propriétaires des index Elasticsearch, qui constituent à leur tour la base des réponses aux invites. Interface utilisateur low-code « Lors du prototypage de la recherche conversationnelle, il est important de pouvoir expérimenter les composants clés des flux de travail RAG et de les utiliser comme base pour une itération rapide,…

lire plus

Évitez les risques et les abus du LLM
Éviter les risques et les abus du LLM - Image de Tung Nguyen sur Pixabay

Ce n’est qu’avec des contrôles de produits et des contre-mesures SOC que les LLM peuvent être introduits en toute sécurité. Avec l'évaluation de la sécurité LLM : le guide définitif pour éviter les risques et les abus, Elastic a publié les derniers résultats de recherche de ses laboratoires de sécurité. L'évaluation de la sécurité LLM examine la sécurité des grands modèles de langage (LLM). Il recommande les meilleures pratiques pour atténuer les attaques et des mesures pour prévenir toute utilisation abusive du LLM. Les mises en œuvre de l’IA générative et des LLM ont considérablement augmenté au cours des 18 derniers mois et sont mises en œuvre le plus rapidement possible dans certaines entreprises. Cela a augmenté la surface d’attaque. En même temps, il y a un manque de…

lire plus

Outils d'attaque efficaces : comment les pirates utilisent les AI LLM à leurs propres fins

L’utilisation de l’IA peut automatiser les tâches de routine, rendre les processus plus efficaces et augmenter la productivité. Cela vaut aussi bien pour l’économie légale que, malheureusement, pour la cybercriminalité organisée. Les grands modèles linguistiques (LLM), en particulier, sont utilisés par les acteurs criminels - moins comme des technologies visionnaires et polyvalentes, mais plutôt comme des outils efficaces pour améliorer les attaques standards. Les grands modèles linguistiques (LLM) comme ChatGPT sont aux yeux du public depuis fin 2022. Cela soulève la question de savoir quels effets ils ont sur la cybersécurité si des pirates informatiques les utilisent à mauvais escient pour créer du contenu malveillant. Lorsque vous utilisez des LLM…

lire plus