Le chatbot OpenAI ChatGPT prouve comment l'intelligence artificielle et l'apprentissage automatique peuvent déterminer directement la vie et la vie quotidienne. Les utilisateurs avancés de l'informatique utiliseront ces outils pour leurs besoins. Et avec cela, malheureusement, les cybercriminels aussi.
Le modèle d'IA ChatGPT d'OpenAI est basé sur un apprentissage non supervisé. Avec cette approche ML, un modèle d'IA est alimenté avec un grand ensemble de données non étiquetées. Le vaste corpus de matériel de livres, d'articles et de sites Web est basé sur des sources antérieures à 2021 et n'a aucun lien avec l'Internet actuel. Mais cela suffit déjà pour apprendre les structures du langage naturel et proposer des réponses à des questions qui semblent faussement humaines.
Les pirates profitent également des IA
Les pirates peuvent bénéficier d'une telle aide, même si la prudence reste de mise avec des prédictions concrètes sur l'utilisation. Cinq exemples de cas dessinent déjà les possibilités du futur :
Hameçonnage automatisé :
Les pirates peuvent utiliser ChatGPT pour lancer des attaques de phishing automatisées qui atteignent un nouveau niveau. Les fautes d'orthographe et de grammaire, qui étaient auparavant une indication évidente de telles attaques, peuvent désormais être exclues. Étant donné que les auteurs de nombreux e-mails de phishing ne parlent ni l'anglais ni l'allemand comme langue maternelle, cela devrait avoir des conséquences majeures sur la qualité de ces e-mails à tous les niveaux. ChatGPT peut écrire des messages dans une grammaire parfaite. Le cercle des victimes qui peuvent être déjouées s'agrandit à pas de géant. Il peut écrire du code pour automatiser le processus d'écriture.
usurpation d'identité
ChatGPT peut imiter de vraies personnes ou organisations d'une manière trompeuse. Cela encouragera le vol d'identité ou d'autres formes de fraude. Les pirates utilisent le chatbot pour envoyer ce qui semble être des messages d'un ami ou d'un collègue, demandant des informations sensibles et accédant ainsi au compte d'utilisateur de quelqu'un d'autre.
Ingénierie sociale
ChatGPT et d'autres chatbots IA peuvent rendre les attaques d'ingénierie sociale plus ciblées. Les pirates manipulent les destinataires avec des conversations encore plus personnalisées et apparemment légitimes. Jusqu'à présent, un certain degré d'intimité n'était pas réaliste sans contact physique personnel. Au plus tard, ce n'est plus le cas lorsque l'outil utilise des informations provenant d'Internet. Les réponses du bot sont si humaines qu'elles diffèrent à peine d'une réponse humaine.
Faux soutien
Les entreprises utiliseront des chatbots IA avancés pour leur contact client. Les pirates seront les passagers clandestins et agiront eux-mêmes - par exemple avec une imitation trompeusement similaire d'une apparence bancaire frauduleuse et d'un service client apparemment humain. Encore une fois, l'objectif est de capturer des informations sensibles. Les logiciels malveillants bancaires ont été pionniers dans le développement de nouvelles méthodes d'attaque dans le passé.
Développement accéléré des attaques - jusqu'à l'aide au code
Forbes a déjà signalé les premiers cas. Apparemment, les pirates utilisent le bot pour écrire du code malveillant afin de chiffrer et d'exfiltrer les données. ChatGPT connaît les langages de codage les plus populaires et pourrait réduire le temps de développement des attaques. Un pirate ayant les connaissances spécialisées requises sur les vulnérabilités du réseau peut utiliser le bot pour combler plus rapidement les lacunes dans son écriture de code. L'ingénierie inverse d'une cyberattaque qui a eu lieu peut être plus facile. L'IA peut aider à modifier le code, à l'améliorer et à mieux adapter les attaques à une cible choisie.
ChatGPT ne peut pas encore écrire de code sans erreur, mais cela peut aider. Il est inquiétant que les mesures de sécurité ne soient pas nécessairement efficaces. Le "commutateur de sécurité" peut être contourné. Le changement vise à empêcher le modèle d'IA d'écrire des textes violents, discriminatoires ou sexuellement explicites. Il est conçu pour aider à identifier les questions posées par l'utilisateur qui cherchent clairement des réponses qui servent à des fins néfastes. Le chatbot refuse toujours les demandes directes d'écriture de code Python pour exploiter une vulnérabilité Log4j. Cependant, un utilisateur averti peut contourner le mécanisme de protection. Par exemple, une possibilité est de poser la même question dans une langue différente. Il trouve des indices pour poser les bonnes questions.
Un nouveau niveau dans le futur
Les attaques soutenues par l'IA atteindront un nouveau niveau à l'avenir. Les victimes doivent être plus méfiantes. Les e-mails de phishing classiques, qui sont le prélude discret de nombreuses attaques graves, voire de la plupart, deviennent de plus en plus trompeurs. En revanche, seules la prudence ou plus d'économie de données sur Internet ou dans les réseaux sociaux peuvent aider. La cyberfraude basée sur le détournement d'une identité devient plus trompeuse dans la mesure où les pirates disposent d'informations sur l'expéditeur supposé d'un message malveillant. Les chatbots qui agissent comme de nouveaux moteurs de recherche créent une nouvelle qualité pour les mécanismes d'attaque existants.
Plus sur Bitdefender.com
À propos de Bitdefender Bitdefender est un leader mondial des solutions de cybersécurité et des logiciels antivirus, protégeant plus de 500 millions de systèmes dans plus de 150 pays. Depuis sa création en 2001, les innovations de l'entreprise ont régulièrement fourni d'excellents produits de sécurité et une protection intelligente pour les appareils, les réseaux et les services cloud pour les particuliers et les entreprises. En tant que fournisseur de choix, la technologie Bitdefender se trouve dans 38 % des solutions de sécurité déployées dans le monde et est approuvée et reconnue par les professionnels du secteur, les fabricants et les consommateurs. www.bitdefender.de