Les systèmes d'IA génératifs comme ChatGPT reçoivent beaucoup d'attention et sont alimentés chaque jour par des milliers d'utilisateurs au mépris de la protection des données.
De plus en plus d'entreprises utilisent les technologies et les utilisent pour une grande variété de projets et de processus. Les outils sont principalement utilisés pour la collecte d'informations, la rédaction de textes et la traduction.
Malheureusement, de nombreux utilisateurs ne sont pas très attentifs aux données sensibles de l'entreprise et laissent l'IA travailler pour eux. Cette pratique peut entraîner de graves dommages indirects, puisque ces données peuvent être récupérées et extraites sans contrôle par tout autre utilisateur qui ne pose que les bonnes questions. Ceux-ci peuvent maintenant être vendus à d'autres entreprises ou à des cybercriminels et utilisés à des fins malveillantes.
Un exemple de la façon dont cela pourrait fonctionner serait le suivant : un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT afin que l'outil puisse rédiger une lettre à la compagnie d'assurance du patient. À l'avenir, si un tiers demande à ChatGPT : " Quel problème de santé a [nom du patient] ?", le chatbot pourrait répondre en fonction des informations fournies par le médecin. Ces risques constituent une menace tout aussi importante que les attaques de phishing, car bien sûr, on peut également tirer des conclusions sur des entreprises entières et leurs pratiques commerciales à partir d'individus individuels.
Les données personnelles sont taboues
Si les employés sont autorisés à utiliser les outils d'IA, ils doivent s'assurer qu'ils ne saisissent aucune donnée personnelle ou information interne à l'entreprise ou qu'ils ne les incluent pas dans leurs requêtes. Ils doivent également s'assurer que les informations qui leur sont données dans les réponses sont également exemptes de données personnelles et internes à l'entreprise. Toutes les informations doivent être vérifiées de manière indépendante pour se protéger contre les réclamations légales et pour éviter les abus.
La formation de sensibilisation à la sécurité peut aider les employés à apprendre à utiliser ChatGPT et d'autres outils d'IA générative de manière responsable et sûre pour le travail. Ils apprennent quelles informations ils peuvent et ne peuvent pas divulguer afin qu'eux-mêmes et leurs entreprises ne courent pas le risque que des données sensibles soient utilisées à mauvais escient par des tiers indésirables. Dans le cas contraire, les conséquences seraient des amendes en vertu du RGPD et les dommages à l'image associés, y compris les cyberattaques par ingénierie sociale. Dans ce dernier cas, les attaquants utiliseraient les informations partagées avec les outils pour leurs recherches, pour exploiter les faiblesses des systèmes informatiques ou pour faire du spear phishing afin de persuader les employés de cliquer sur les liens stockés dans les e-mails.
Plus sur KnowBe4.com
À propos de KnowBe4 KnowBe4, fournisseur de la plus grande plate-forme au monde de formation à la sensibilisation à la sécurité et de simulation d'hameçonnage, est utilisé par plus de 60.000 4 entreprises dans le monde. Fondée par Stu Sjouwerman, spécialiste de l'informatique et de la sécurité des données, KnowBe4 aide les organisations à gérer l'élément humain de la sécurité en sensibilisant aux rançongiciels, à la fraude des PDG et à d'autres tactiques d'ingénierie sociale grâce à une nouvelle approche de l'éducation à la sécurité. Kevin Mitnick, spécialiste de la cybersécurité de renommée internationale et Chief Hacking Officer de KnowBe4, a aidé à développer la formation KnowBe4 sur la base de ses tactiques d'ingénierie sociale bien documentées. Des dizaines de milliers d'organisations comptent sur KnowBeXNUMX pour mobiliser leurs utilisateurs finaux comme dernière ligne de défense.