ChatGPT et la protection des données violée

Brèves sur la cybersécurité B2B

Partager le post

Les systèmes d'IA génératifs comme ChatGPT reçoivent beaucoup d'attention et sont alimentés chaque jour par des milliers d'utilisateurs au mépris de la protection des données.

De plus en plus d'entreprises utilisent les technologies et les utilisent pour une grande variété de projets et de processus. Les outils sont principalement utilisés pour la collecte d'informations, la rédaction de textes et la traduction.

Malheureusement, de nombreux utilisateurs ne sont pas très attentifs aux données sensibles de l'entreprise et laissent l'IA travailler pour eux. Cette pratique peut entraîner de graves dommages indirects, puisque ces données peuvent être récupérées et extraites sans contrôle par tout autre utilisateur qui ne pose que les bonnes questions. Ceux-ci peuvent maintenant être vendus à d'autres entreprises ou à des cybercriminels et utilisés à des fins malveillantes.

Un exemple de la façon dont cela pourrait fonctionner serait le suivant : un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT afin que l'outil puisse rédiger une lettre à la compagnie d'assurance du patient. À l'avenir, si un tiers demande à ChatGPT : " Quel problème de santé a [nom du patient] ?", le chatbot pourrait répondre en fonction des informations fournies par le médecin. Ces risques constituent une menace tout aussi importante que les attaques de phishing, car bien sûr, on peut également tirer des conclusions sur des entreprises entières et leurs pratiques commerciales à partir d'individus individuels.

Les données personnelles sont taboues

Si les employés sont autorisés à utiliser les outils d'IA, ils doivent s'assurer qu'ils ne saisissent aucune donnée personnelle ou information interne à l'entreprise ou qu'ils ne les incluent pas dans leurs requêtes. Ils doivent également s'assurer que les informations qui leur sont données dans les réponses sont également exemptes de données personnelles et internes à l'entreprise. Toutes les informations doivent être vérifiées de manière indépendante pour se protéger contre les réclamations légales et pour éviter les abus.

La formation de sensibilisation à la sécurité peut aider les employés à apprendre à utiliser ChatGPT et d'autres outils d'IA générative de manière responsable et sûre pour le travail. Ils apprennent quelles informations ils peuvent et ne peuvent pas divulguer afin qu'eux-mêmes et leurs entreprises ne courent pas le risque que des données sensibles soient utilisées à mauvais escient par des tiers indésirables. Dans le cas contraire, les conséquences seraient des amendes en vertu du RGPD et les dommages à l'image associés, y compris les cyberattaques par ingénierie sociale. Dans ce dernier cas, les attaquants utiliseraient les informations partagées avec les outils pour leurs recherches, pour exploiter les faiblesses des systèmes informatiques ou pour faire du spear phishing afin de persuader les employés de cliquer sur les liens stockés dans les e-mails.

Plus sur KnowBe4.com

 


À propos de KnowBe4

KnowBe4, fournisseur de la plus grande plate-forme au monde de formation à la sensibilisation à la sécurité et de simulation d'hameçonnage, est utilisé par plus de 60.000 4 entreprises dans le monde. Fondée par Stu Sjouwerman, spécialiste de l'informatique et de la sécurité des données, KnowBe4 aide les organisations à gérer l'élément humain de la sécurité en sensibilisant aux rançongiciels, à la fraude des PDG et à d'autres tactiques d'ingénierie sociale grâce à une nouvelle approche de l'éducation à la sécurité. Kevin Mitnick, spécialiste de la cybersécurité de renommée internationale et Chief Hacking Officer de KnowBe4, a aidé à développer la formation KnowBe4 sur la base de ses tactiques d'ingénierie sociale bien documentées. Des dizaines de milliers d'organisations comptent sur KnowBeXNUMX pour mobiliser leurs utilisateurs finaux comme dernière ligne de défense.


 

Articles liés au sujet

Rapport : 40 % de phishing en plus dans le monde

Le rapport actuel de Kaspersky sur le spam et le phishing pour 2023 parle de lui-même : les utilisateurs allemands sont à la recherche ➡ En savoir plus

BSI définit des normes minimales pour les navigateurs Web

Le BSI a révisé la norme minimale pour les navigateurs Web pour l'administration et a publié la version 3.0. Vous pouvez vous en souvenir ➡ En savoir plus

Un malware furtif cible les entreprises européennes

Les pirates informatiques attaquent de nombreuses entreprises à travers l'Europe avec des logiciels malveillants furtifs. Les chercheurs d'ESET ont signalé une augmentation spectaculaire des attaques dites AceCryptor via ➡ En savoir plus

Sécurité informatique : la base de LockBit 4.0 désamorcée

Trend Micro, en collaboration avec la National Crime Agency (NCA) du Royaume-Uni, a analysé la version non publiée en cours de développement. ➡ En savoir plus

MDR et XDR via Google Workspace

Que ce soit dans un café, un terminal d'aéroport ou un bureau à domicile, les employés travaillent dans de nombreux endroits. Cependant, cette évolution pose également des défis ➡ En savoir plus

Test : Logiciel de sécurité pour les terminaux et les PC individuels

Les derniers résultats des tests du laboratoire AV-TEST montrent de très bonnes performances de 16 solutions de protection établies pour Windows ➡ En savoir plus

FBI : Internet Crime Report chiffre 12,5 milliards de dollars de dégâts 

L'Internet Crime Complaint Center (IC3) du FBI a publié son rapport 2023 sur la criminalité sur Internet, qui comprend des informations provenant de plus de 880.000 XNUMX personnes. ➡ En savoir plus

HeadCrab 2.0 découvert

La campagne HeadCrab contre les serveurs Redis, active depuis 2021, continue d'infecter avec succès les cibles avec la nouvelle version. Le mini-blog des criminels ➡ En savoir plus