Les deepfakes audio, c'est-à-dire les voix imitées avec des systèmes informatiques, sont en constante évolution. Cela se traduit par une augmentation des tentatives de fraude soutenues par l'IA.
Le soi-disant "truc du petit-enfant", dans lequel l'agresseur se fait généralement passer pour l'enfant ou le petit-enfant de la victime et prétend qu'il s'agit d'une situation de crise afin d'obtenir un soutien financier, est déjà bien connu. Aujourd'hui, cependant, on utilise une intelligence artificielle spécialisée dans l'imitation de voix.Ces IA n'ont parfois besoin que de 30 minutes de matériel audio et peuvent l'utiliser pour créer un profil vocal complet avec lequel cette personne peut être personnifiée. Avec l'utilisation de l'IA générative, cela fonctionne de manière alarmante. Obtenir l'audio dont vous avez besoin est maintenant plus facile que jamais. Les médias sociaux le permettent.
La voix d'imitation est la même que l'original
Il existe déjà de nombreux rapports, avant même la disponibilité de l'IA générative, de telles tentatives de fraude dans l'environnement des entreprises, comme en témoigne un incident aux Émirats arabes unis en 2021. Et beaucoup y succombent aussi car une grande partie n'arrive pas à distinguer la voix imitée de son originale. Plus l'IA dispose de matériel, plus il devient difficile de détecter des anomalies dans la voix imitée.
Le rapport Méfiez-vous de l'imposteur artificiel de McAfee a révélé que 25 % des personnes interrogées dans le monde ont déclaré avoir reçu ou connaître quelqu'un qui avait reçu un appel frauduleux utilisant une voix ressemblant à une IA. Avec des services en ligne comme ceux d'Eleven Labs offrant un clonage instantané de la voix pour créer une voix synthétique à partir de 30 minutes d'échantillons audio, ce n'est qu'une question de temps avant que les acteurs de la menace exploitent encore plus les tentatives de fraude basées sur la voix de l'IA. Selon le rapport, près de la moitié (48 %) des répondants aideraient s'ils recevaient un appel concernant un accident de voiture, 47 % aideraient s'ils étaient appelés à propos d'un vol, 43 % s'ils perdaient leur portefeuille et 41 % s'ils besoin d'aide pendant les vacances.
Peu peuvent faire la différence
70% ont également déclaré qu'ils ne pouvaient pas dire si la voix était réelle ou non. Ainsi, le seul véritable indice permettant de savoir si un appel est une arnaque ou non est le fait que l'appel lui-même est inattendu. Les utilisations potentielles de ce type de fraude dans le monde des affaires vont de la fraude par carte-cadeau du PDG aux escroqueries numériques et plus encore - qui exigent toutes que les utilisateurs participent en permanence à une formation de sensibilisation à la sécurité au sein de l'organisation afin qu'ils restent vigilants, même lorsque la voix sur l'autre extrémité du téléphone semble familière.
Plus sur KnowBe4.com
À propos de KnowBe4 KnowBe4, fournisseur de la plus grande plate-forme au monde de formation à la sensibilisation à la sécurité et de simulation d'hameçonnage, est utilisé par plus de 60.000 4 entreprises dans le monde. Fondée par Stu Sjouwerman, spécialiste de l'informatique et de la sécurité des données, KnowBe4 aide les organisations à gérer l'élément humain de la sécurité en sensibilisant aux rançongiciels, à la fraude des PDG et à d'autres tactiques d'ingénierie sociale grâce à une nouvelle approche de l'éducation à la sécurité. Kevin Mitnick, spécialiste de la cybersécurité de renommée internationale et Chief Hacking Officer de KnowBe4, a aidé à développer la formation KnowBe4 sur la base de ses tactiques d'ingénierie sociale bien documentées. Des dizaines de milliers d'organisations comptent sur KnowBeXNUMX pour mobiliser leurs utilisateurs finaux comme dernière ligne de défense.
Articles liés au sujet