
L’utilisation de l’IA peut automatiser les tâches de routine, rendre les processus plus efficaces et augmenter la productivité. Cela vaut aussi bien pour l’économie légale que, malheureusement, pour la cybercriminalité organisée. Les grands modèles linguistiques (LLM), en particulier, sont utilisés par les acteurs criminels - moins comme des technologies visionnaires et polyvalentes, mais plutôt comme des outils efficaces pour améliorer les attaques standards.
Les grands modèles linguistiques (LLM) comme ChatGPT sont aux yeux du public depuis fin 2022. Cela soulève la question de savoir quels effets ils ont sur la cybersécurité si des pirates informatiques les utilisent à mauvais escient pour créer du contenu malveillant. Lorsqu’ils utilisent des LLM, les cybercriminels disposent de trois options.
Grands modèles linguistiques (LLM) comme ChatGPT
La première approche consiste à développer un LLM personnalisé, qui nécessite une expertise technique et des ressources. Cependant, il est actuellement peu probable qu’un LLM généralement adapté à des fins malveillantes, comme l’aide à la programmation de logiciels malveillants, soit encore possible. Le danger réel et actuellement réaliste réside dans les LLM en tant qu’outils efficaces de fraude. Une telle utilisation pragmatique correspond davantage à la façon dont fonctionnent les cybercriminels : ils recherchent généralement des playbooks simples, reproductibles et évolutifs comme modèle pour leurs attaques. Ils sont également moins enclins à investir trop d’argent et de ressources dans des systèmes complexes qui dépendent d’outils d’IA, qui ne fonctionnent plus après le changement de ces outils en évolution rapide. Un système complexe qui prend des mois à développer et qui dépend de ChatGPT peut être arrêté en modifiant seulement quelques lignes de code. Le risque est donc trop élevé que la valeur de l’investissement complexe soit perdue en un instant.
La deuxième option consiste à jailbreaker les LLM classiques. Cependant, cela nécessite une expertise en ingénierie rapide, ce qui exclut les attaquants moins techniques qui bénéficieraient le plus des LLM.
Abonnez-vous à la newsletter maintenant
Lisez les meilleures nouvelles de B2B CYBER SECURITY une fois par moisGPT Builder d'OpenAI pour créer votre propre IA
La troisième option consiste à utiliser des versions personnalisées de ChatGPT qui peuvent être créées à des fins spécifiques. GPT Builder d'OpenAI fournit une plate-forme qui permet aux utilisateurs de personnaliser ChatGPT pour des tâches spécifiques sans avoir à coder eux-mêmes.
Dans ce contexte, les possibilités des logiciels malveillants générés par l’IA et leurs conséquences sur la cybersécurité font actuellement l’objet de discussions approfondies. Bien que ChatGPT puisse être utilisé pour générer du code malveillant, il n’est pas de meilleure qualité que celui déjà disponible en masse. Cela le rend moins attrayant pour les auteurs de logiciels malveillants expérimentés, pour qui les référentiels de code publics comme GitHub fournissent un meilleur code malveillant.
Ce qui distingue vraiment les LLM des anciens modèles d'apprentissage automatique, ce sont leurs remarquables capacités de traitement et de génération du langage naturel. Cela peut rendre l'IA générative plus facile pour les cybercriminels, en particulier dans les attaques d'ingénierie sociale et lors de l'analyse de grandes quantités de données pour recueillir des informations.
Les IA sont particulièrement efficaces dans les attaques d’ingénierie sociale
Lorsqu'il s'agit d'écrire des messages frauduleux, l'utilisation de chatbots pris en charge par LLM, par exemple, réduit sensiblement les barrières linguistiques des attaquants. Cela permet aux pirates d’étendre leurs attaques plus sophistiquées à un plus grand nombre de destinataires et d’augmenter la crédibilité des messages de phishing. Les LLM soutiennent les criminels non seulement en termes d'aspects linguistiques tels que l'orthographe, la grammaire et les formulations correctes dans les langues étrangères, mais également au niveau du contenu, comme l'utilisation de termes industriels appropriés, d'acronymes d'initiés ou d'actualités qui ont un impact sur les victimes potentielles.
C'est ainsi que les cybercriminels utilisent l'IA générative à leurs propres fins
1. Attaques BEC optimisées
Avec l’aide des LLM, les attaquants peuvent facilement et de manière trompeuse reproduire le style de communication, la terminologie et les connaissances privilégiées des supérieurs en intégrant leurs conversations précédentes dans leurs modèles. On peut actuellement s’attendre à une augmentation des attaques BEC (Business Email Compromise) contre les entreprises de toutes tailles.
2. Des tentatives de fraude plus plausibles
Dans le cadre de la fraude sur paiement anticipé, les criminels utilisent de faux prétextes pour amener leurs victimes à avancer de l'argent. Lorsqu’ils parlent à la victime, les agresseurs fournissent souvent des raisons et des informations qui, en faisant appel au seul bon sens, peuvent révéler qui est l’agresseur erroné. Les chatbots LLM permettent aux cybercriminels d'augmenter la crédibilité de leurs tentatives de fraude.
3. Scalabilité des attaques avancées
Les LLM ont le potentiel de réduire considérablement les barrières à l’entrée des attaques sophistiquées qui nécessitent beaucoup de temps, d’efforts et d’investissements, ce qui les rend attractives pour un plus large éventail de criminels. Cela augmente non seulement le nombre d’attaquants potentiels, mais permet également à des pirates informatiques déjà expérimentés de mener plus fréquemment des attaques sophistiquées.
4. Calculateur de ransomware
Les LLM, similaires à des outils comme Crunchbase, peuvent aider les attaquants à collecter des informations sur les entreprises. Non seulement ils donnent un aperçu de l'histoire et de la situation financière d'une entreprise, mais ils analysent également les dernières nouvelles de la presse, y compris les fusions et acquisitions. L’une des utilisations les plus pratiques et les plus facilement monétisées des LLM pour les cybercriminels est la visualisation et l’analyse contrôlées par l’IA de grandes quantités de données et l’identification associée de cibles lucratives. Les groupes Ransomware-as-a-Service (RaaS) disposent souvent d’équipes dédiées au renseignement open source (OSINT) qui évaluent et définissent une demande de rançon réaliste. En sélectionnant intelligemment les organisations présentant le potentiel de pression le plus élevé, les groupes de ransomware pourraient maximiser leur taux de paiement des rançons.
5. Analyse des fuites de données publiques
Les messages personnalisés générés par les LLM peuvent être utilisés pour créer des attaques de spear phishing convaincantes en exploitant les informations provenant de violations de données très médiatisées ou de sites Web d'entreprise. Cette automatisation augmente la portée des cibles potentielles tout en augmentant l'authenticité des communications malveillantes.
6. Évaluer les données exfiltrées
Enfin, les cybercriminels peuvent utiliser les LLM pour passer au crible les données qu'ils ont volées aux entreprises. Grâce à leur capacité à traiter le langage naturel, les modèles peuvent catégoriser et identifier les informations sensibles dans les données volées. Parce que voler des téraoctets de données est une chose. L’étape suivante consiste à extraire spécifiquement ou à rendre indisponibles les informations qui génèrent effectivement une rançon élevée ou qui peuvent être bien vendues.
L’IA est idéale pour optimiser ou compléter les capacités existantes. Il faut donc s’attendre à ce que l’intérêt de l’IA pour la cybercriminalité organisée réside principalement dans le fait de rendre ses attaques plus efficaces et d’augmenter leur qualité et leur évolutivité. Les entreprises doivent donc renforcer leurs mesures de sécurité de base et adopter une approche de sécurité à plusieurs niveaux. Les technologies de sécurité basées sur l'IA, développées entre autres pour détecter les attaques d'ingénierie sociale, peuvent également aider à détecter les signes avant-coureurs typiques d'une tentative de fraude grâce au traitement avancé du langage naturel (NLP) et à conjurer le danger dans l'œuf.
Plus sur Bitdefender.com
À propos de Bitdefender Bitdefender est un leader mondial des solutions de cybersécurité et des logiciels antivirus, protégeant plus de 500 millions de systèmes dans plus de 150 pays. Depuis sa création en 2001, les innovations de l'entreprise ont régulièrement fourni d'excellents produits de sécurité et une protection intelligente pour les appareils, les réseaux et les services cloud pour les particuliers et les entreprises. En tant que fournisseur de choix, la technologie Bitdefender se trouve dans 38 % des solutions de sécurité déployées dans le monde et est approuvée et reconnue par les professionnels du secteur, les fabricants et les consommateurs. www.bitdefender.de