Nouvelles

Dernières actualités sur la cybersécurité B2B >>> Agences RP : ajoutez-nous à votre liste de diffusion - voir contact ! >>> Réservez un PartnerChannel exclusif pour votre actualité !

Attaques contre les PME : le faux ChatGPT diffuse des logiciels malveillants au lieu d'aider
Attaques contre les PME : un faux ChatGPT diffuse des logiciels malveillants au lieu d'aider Image : depositphotos

Les attaques contre les PME sont en hausse : entre janvier et avril 8.500, 2025 2025 employés de PME ont été trompés par de faux services tels que ChatGPT, Teams ou Zoom, ce qui a entraîné la diffusion d’un nombre important de logiciels malveillants sous couvert d’aide gratuite. Comme le montre une récente étude de Kaspersky, les cybercriminels déguisent de plus en plus de logiciels malveillants ou indésirables en applications de productivité populaires. Au total, environ 8.500 115 employés de PME ont été ciblés par ces logiciels malveillants au cours des quatre premiers mois de 100. Les attaques déguisées en ChatGPT (augmentation de 13 %), Microsoft Teams (augmentation de XNUMX %) et Zoom (augmentation de XNUMX %) ont considérablement augmenté. De plus, les employés…

lire plus

L'utilisation des outils d'IA/ML a augmenté de 3000 XNUMX %
L'utilisation des outils d'IA/ML a augmenté de 3000 XNUMX %

Les outils d’IA/ML sont populaires, selon les résultats d’un récent rapport sur les menaces. Cependant, une utilisation accrue entraîne également des risques de sécurité. Les cybercriminels utilisent abusivement des outils d’IA/ML comme DeepSeek et Agentic AI comme armes. Le rapport révèle des scénarios de menaces réels allant du phishing basé sur l’IA aux fausses plateformes d’IA. Le rapport souligne que l’utilisation des outils d’IA/ML dans les entreprises a augmenté de plus de 3.000 3.624 % par rapport à l’année précédente et met en évidence l’adoption rapide des technologies d’IA dans tous les secteurs pour libérer les avantages en matière de productivité, d’efficacité et d’innovation. Au cours de la période d’étude, les entreprises disposaient d’un total de XNUMX XNUMX To…

lire plus

Grands modèles de langage (LLM) et sécurité des données
Grands modèles de langage (LLM) et sécurité des données

Compte tenu du rythme rapide du développement de l’IA avec les LLM, il devient de plus en plus clair que les garde-fous de base, les contrôles de plausibilité et les mesures de sécurité basées sur des invites actuellement en place sont perméables et inadéquats. Lors de l’élaboration de stratégies visant à améliorer la sécurité des données dans les charges de travail d’IA, il est crucial de changer de perspective et de considérer l’IA comme une personne vulnérable aux attaques d’ingénierie sociale. Cette analogie peut aider les entreprises à mieux comprendre les vulnérabilités et les menaces auxquelles sont confrontés les systèmes d’IA et à développer des mesures de sécurité plus robustes. Vast Data, fournisseur d'une plate-forme de données pour les charges de travail d'IA, explique les problèmes de sécurité entourant les LLM : Modern générative...

lire plus

La porte dérobée PipeMagic se cache dans l'application ChatGPT
Kaspersky_nouvelles

Le cheval de Troie de porte dérobée PipeMagic pénètre dans le réseau de l'entreprise via une fausse application ChatGPT. Grâce à lui, les pirates peuvent à la fois extraire des données confidentielles et obtenir un accès à distance complet aux appareils infectés. Le malware peut également recharger des malwares supplémentaires. Kaspersky a découvert pour la première fois la porte dérobée PipeMagic en 2022 ; À cette époque, le malware ciblait des entreprises en Asie. La version actuelle est désormais cachée dans une fausse application ChatGPT créée dans le langage de programmation Rust. Cette porte dérobée semble initialement légitime et contient plusieurs bibliothèques Rust courantes qui sont également utilisées dans d'autres applications basées sur Rust. La demande sera-t-elle…

lire plus

Les pirates déguisent les logiciels malveillants en outils d'IA
Les pirates déguisent les logiciels malveillants en outils d'IA

Les outils d’IA comme ChatGPT, Bard ou Suno sont en plein essor car ils offrent de nombreuses possibilités. Les pirates informatiques en profitent et diffusent de fausses applications d'IA afin d'obtenir de l'argent et des données auprès de parties intéressées sans méfiance, y compris dans les entreprises. Les experts d'ESET expliquent les tendances actuelles des cyberattaquants et donnent des conseils sur la manière dont les entreprises et les employés peuvent se protéger contre ces nouvelles menaces. « Les possibilités que nous offrent les outils d’IA sont spectaculaires. L’IA est sur toutes les lèvres et de plus en plus d’utilisateurs utilisent ces outils au quotidien. Les hackers surveillent de près ces tendances et veulent...

lire plus

Risques liés à l’utilisation croissante de l’intelligence artificielle
Risques liés à l’utilisation croissante de l’intelligence artificielle

Un rapport montre que 569 To de données d'entreprise sont transmises aux outils d'IA et souligne l'importance d'une meilleure sécurité des données. Les transactions IA/ML d'entreprise sont passées de 521 millions par mois en avril 2023 à 3,1 milliards en janvier 2024. Avec 21 % de toutes les transactions IA, l'industrie manufacturière génère le plus de trafic IA dans le cloud Zscaler, suivie par la finance et l'assurance (14 %) et les services. (13 pour cent). Les applications d'IA/ML d'entreprise les plus populaires en termes de volume de transactions sont ChatGPT, Drift, OpenAI, Writer et LivePerson. Les cinq pays avec le plus de transactions d'IA dans les entreprises sont les États-Unis, l'Inde, la Grande-Bretagne,…

lire plus

Un an de ChatGPT
Brèves sur la cybersécurité B2B

L’essor actuel de l’intelligence artificielle entraîne une forte augmentation de la demande sur le marché allemand. Les dépenses en logiciels, services et matériels associés à l’IA devraient atteindre 6,3 milliards d’euros cette année. Cela correspond à une augmentation de 32 % par rapport à 2022, où 4,8 milliards d’euros avaient été dépensés en intelligence artificielle. L'association numérique Bitkom le rapporte sur la base des données de la société d'études de marché IDC. « Le lancement de ChatGPT il y a un an a été une première étincelle pour l’utilisation de l’IA. ChatGPT a montré pour la première fois à de nombreuses personnes ce que l'IA peut faire aujourd'hui...

lire plus

ChatGPT : Risques d’un usage professionnel
Kaspersky_nouvelles

De nombreux Allemands utilisent ChatGPT dans leur vie professionnelle quotidienne. Cela peut compromettre la sécurité des données sensibles. Selon une enquête représentative, près de la moitié (46 %) des actifs en Allemagne utilisent ChatGPT dans leur travail quotidien. La popularité des services d’IA générative et des grands modèles linguistiques (LLM) pose la question aux entreprises de savoir dans quelle mesure elles peuvent faire confiance aux modèles linguistiques contenant des données sensibles de l’entreprise. Les experts de Kaspersky ont identifié les risques suivants en matière de protection des données liés à l'utilisation professionnelle de ChatGPT : Fuite de données ou piratage par le fournisseur : bien que les chatbots basés sur LLM soient exploités par de grandes entreprises technologiques, ils ne sont pas à l'abri d'attaques de piratage ou de fuites accidentelles de données. Il y en avait déjà un…

lire plus

Jailbreaker les chatbots basés sur l'IA
Brèves sur la cybersécurité B2B

La société de cybersécurité à l'origine de la révélation de WormGPT a publié un article de blog. Cela fournit des informations sur les stratégies utilisées par les cybercriminels qui « jailbreakent » les chatbots IA populaires tels que ChatGPT. Il s’agit de tactiques permettant de contourner les limites de sécurité que les entreprises imposent à leurs chatbots. Les chercheurs de SlashNext ont découvert que les cybercriminels ne se contentent pas de partager leurs jailbreaks réussis sur des forums de discussion pour les rendre accessibles aux autres. Au lieu de cela, les développeurs font également la promotion de robots IA qui peuvent être utilisés à des fins criminelles. Ils prétendent qu'il s'agit de modèles de langage personnalisés (LLM). SlashNext a confirmé que c'était dans…

lire plus