Actualités

Dernières actualités sur la cybersécurité B2B >>> Agences RP : ajoutez-nous à votre liste de diffusion - voir contact ! >>> Réservez un PartnerChannel exclusif pour votre actualité !

Rapport sur le phishing : les criminels s'appuient sur l'IA
Rapport sur le phishing : les criminels s'appuient sur l'IA

Un rapport récent montre que les attaquants ont modifié leurs tactiques de phishing. Ils utilisent l'IA pour cibler les équipes informatiques, RH, financières et de paie. Les plateformes les plus populaires pour le vol de données d'identité sont Facebook, Instagram et Telegram. À l'échelle mondiale, les attaques de phishing ont diminué d'un cinquième. Zscaler, l'un des principaux fournisseurs de sécurité cloud, a publié son rapport Zscaler ThreatLabz 2025 sur le phishing, qui a analysé plus de deux milliards de tentatives de phishing bloquées depuis la plateforme Zscaler Zero Trust Exchange™ entre janvier et décembre 2024. Ce rapport annuel révèle que les cybercriminels se tournent de plus en plus vers l'IA générative pour lancer des attaques ciblées contre des fonctions critiques de l'entreprise.

lire plus

Vishing : les criminels s'appuient sur des attaques de phishing vocal
Vishing : les criminels s'appuient sur des attaques de phishing vocal

En utilisant des deepfakes créés par l’IA, les cybercriminels imitent des voix de confiance. Le vishing a littéralement explosé au cours du second semestre 2024, selon les résultats d'un récent rapport de renseignement sur les menaces. Les attaques de ransomware ont également continué d’augmenter, comme prévu, tandis que les paiements de rançon ont diminué. L'équipe ATO (Advanced Threat Operations) de Ontinue a présenté son rapport semestriel, dans lequel il analyse les tendances et les développements actuels dans le secteur de la cybersécurité. Comme prévu, les attaques par ransomware restent l’un des outils les plus populaires utilisés par les collectifs de pirates informatiques et les cybercriminels. Une tendance inquiétante est que les groupes de hackers s’appuient de moins en moins sur des compétences de programmation pure et de plus en plus sur…

lire plus

Courriel : La sécurité menacée par des attaques basées sur l’IA
Brèves sur la cybersécurité B2B

Les e-mails de phishing et les deepfakes basés sur l’IA mettent en danger la sécurité des communications par e-mail. C’est pourquoi la protection des e-mails doit être une priorité absolue. Afin de parer aux attaques, l’utilisation de solutions de sécurité modernes fonctionnant également avec l’IA est essentielle. L’intelligence artificielle révolutionne non seulement l’industrie technologique, mais est également utilisée par les cybercriminels pour développer des méthodes d’attaque de plus en plus sophistiquées. En particulier dans le domaine de la communication par courrier électronique, des risques importants découlent des courriers électroniques de phishing assistés par l'IA, des attaques basées sur le deepfake et des logiciels malveillants automatisés. Ces menaces ne sont souvent plus détectables par les mécanismes de sécurité traditionnels. Nouveaux défis pour les entreprises : des e-mails de phishing assistés par l’IA qui semblent trompeusement réels ; Attaques Deepfake avec de fausses voix…

lire plus

Fraude générée par l'IA : prévention des deepfakes, des voix IA et des faux profils

Les IA génèrent tout pour l’utilisateur, y compris de nombreux contenus frauduleux, tels que des deepfakes, des voix IA ou de faux profils. Les utilisateurs peuvent être parfaitement trompés par cela – seuls les bons systèmes ne le peuvent pas. Seule une combinaison de différentes mesures peut aider à lutter contre la fraude générée par l’IA : les personnes, les processus et la technologie. Depuis l’émergence de l’IA générative il y a deux ans, elle a captivé l’imagination des gens et pénètre de plus en plus de domaines de la vie – avec de nombreux avantages, bien sûr, mais aussi de nouveaux risques. Les chercheurs en sécurité de Trend Micro considèrent également l’IA comme un moteur clé de l’activité criminelle en 2025…

lire plus

L'authentification biométrique prévient la fraude
L'authentification biométrique prévient la fraude

L’année dernière, huit entreprises sur dix ont été touchées par un vol de données ou un autre incident de sécurité. Les attaques soutenues par l’IA, utilisant désormais une technologie de deep fake, visent principalement à voler des identités. L’authentification biométrique permet de mieux protéger ces données sensibles. Entrust, leader mondial de la sécurité des identités, des paiements et des données, étend les fonctionnalités de sa plateforme Identity-as-a-Service (IDaaS) pour inclure la vérification d'identité basée sur l'IA : les utilisateurs sont vérifiés à l'aide de leurs identifiants biométriques cryptés stockés sur leur appareil. L’authentification biométrique du visage augmente la conformité et la protection contre la fraude. Les entreprises allemandes attirent de plus en plus l’attention…

lire plus

Conseils pour vous protéger contre la fraude au PDG et les attaques deepfake
Trois conseils pour vous protéger contre la fraude au PDG et les attaques deepfake

Les attaques Deepfake se multiplient rapidement et s’améliorent. Il est particulièrement dangereux pour les entreprises qu’un deepfake imite la voix et l’image de leur propre PDG, car ils sont souvent reconnus trop tard. La fraude à l’identité basée sur l’IA est en augmentation dans le monde entier, y compris dans la région DACH. Rien qu'en Autriche, les attaques de deepfake ont augmenté de 119 % cette année, selon une enquête récente de KPMG Autriche. Il n'est pas étonnant que dans la récente enquête, à laquelle ont également participé de nombreux décideurs informatiques allemands, plus de la moitié se soient montrés « très inquiets »...

lire plus

Utilisation abusive de GenAI : outils Deepfake sur le Darknet
Utilisation abusive de GenAI : outils Deepfake sur le Darknet Image : Bing - KI

Les cybercriminels élargissent leur offre de modèles linguistiques étendus (LLM) et de technologies deepfake, produisant davantage et élargissant leur portée. Les marchés Criminal Telegram font la promotion de nouveaux chatbots de type ChatGPT qui promettent de fournir des réponses non filtrées à toutes sortes de questions malveillantes. D'une part, les LLM commerciaux comme Gemini ou ChatGPT sont programmés pour refuser de répondre aux demandes malveillantes ou contraires à l'éthique. D’un autre côté, les criminels évitent les services bien connus tels que ChatGPT car ils craignent d’être traqués par des outils réglementés. Les interfaces Jailbreak-as-a-Service permettent aux utilisateurs de regrouper des questions malveillantes dans des invites spécifiques, violant ainsi le code éthique des outils d'IA…

lire plus

Défense contre les cyberattaques basées sur l'IA
Défense contre les cyberattaques basées sur l'IA

Kaspersky a ajouté un nouveau module à sa plateforme d'apprentissage en ligne. Les participants peuvent désormais acquérir des compétences pour détecter et atténuer les cyberattaques basées sur l’IA, telles que les deepfakes. Un exemple marquant de l’urgence de se protéger contre les deepfakes est un cas survenu en février 2024 : une entreprise internationale a perdu 25 millions de dollars parce qu’un employé financier s’est laissé prendre à une escroquerie sophistiquée utilisant la technologie des deepfakes. Un faux directeur financier virtuel a convaincu l'employé concerné lors d'une vidéoconférence - au cours de laquelle les fausses simulations d'autres collègues étaient également présentes - de transférer la somme importante. Comment...

lire plus

Deepfakes et cyberattaques basées sur l’IA contre les entreprises
Deepfakes et cyberattaques basées sur l'IA contre les entreprises Image : Bing - AI

Plus de défense pour tous les environnements contre la menace croissante d’attaques et de tentatives de fraude utilisant l’intelligence artificielle (IA) et les deepfakes. Trend Micro annonce de nouvelles fonctionnalités pour ses solutions de cybersécurité d'entreprise. Les deepfakes (images, enregistrements audio ou vidéo d'apparence trompeusement réelle, manipulés à l'aide de l'intelligence artificielle) représentent un risque important pour les entreprises et les particuliers. Si une fraude se produit à l'aide de deepfakes non détectés, cela peut entraîner des pertes financières, des atteintes à la réputation, des problèmes juridiques, etc. perte d'emploi, usurpation d'identité et même atteinte à la santé mentale ou physique des personnes concernées. Dans une étude récente menée par Trend Micro, 36…

lire plus

Les attaques de deepfake par l’IA sont en hausse
Brèves sur la cybersécurité B2B

Les mesures de protection telles que l’authentification biométrique étaient auparavant considérées comme presque impossibles à déchiffrer. Cependant, grâce à des attaques sophistiquées d’usurpation d’identité telles que les deepfakes et la fraude à l’identité générée par l’IA, les pirates ont trouvé un moyen de tromper les employés, en particulier les cadres. Une étude de GetApp examine comment les professionnels de l'informatique et de la cybersécurité réagissent à la menace croissante de fraude biométrique. Principaux résultats de l'étude : Au cours des 18 derniers mois, 27 % des dirigeants ciblés par une cyberattaque ont été victimes d'une attaque deepfake basée sur l'IA. 55 % des professionnels de l'informatique et de la sécurité déclarent que leur entreprise a mis en place des mesures spécifiques pour se défendre contre les attaques deepfake générées par l'IA...

lire plus