I sistemi di intelligenza artificiale generativa come ChatGPT ricevono molta attenzione e vengono alimentati con dati da migliaia di utenti ogni giorno indipendentemente dalla protezione dei dati.
Sempre più aziende utilizzano le tecnologie e le utilizzano per un'ampia varietà di progetti e processi. Gli strumenti sono utilizzati principalmente per raccogliere informazioni, scrivere testi e tradurre.
Sfortunatamente, molti utenti non sono molto attenti ai dati aziendali sensibili e lasciano che l'IA lavori per loro. Questa pratica può causare gravi danni consequenziali, poiché questi dati possono essere recuperati ed estratti senza controllo da qualsiasi altro utente che pone solo le domande giuste. Questi possono ora essere venduti ad altre società o a criminali informatici e utilizzati in modo improprio per vari scopi nefandi.
Un esempio di come potrebbe funzionare sarebbe il seguente: un medico inserisce il nome di un paziente e i dettagli della sua condizione in ChatGPT in modo che lo strumento possa comporre una lettera alla compagnia assicurativa del paziente. In futuro, se una terza parte chiedesse a ChatGPT "Che problema di salute ha [nome del paziente]?", il chatbot potrebbe rispondere in base alle informazioni fornite dal medico. Questi rischi sono una minaccia tanto grande quanto gli attacchi di phishing, perché ovviamente si possono trarre conclusioni su intere aziende e sulle loro pratiche commerciali anche da singoli individui.
I dati personali sono tabù
Se i dipendenti sono autorizzati a utilizzare gli strumenti di intelligenza artificiale, devono assicurarsi di non inserire dati personali o informazioni aziendali interne o di includerli nelle loro query. Devono inoltre garantire che anche le informazioni fornite nelle risposte siano prive di dati personali e interni dell'azienda. Tutte le informazioni devono essere verificate in modo indipendente per proteggersi da rivendicazioni legali ed evitare abusi.
La formazione sulla consapevolezza della sicurezza può aiutare i dipendenti a imparare a utilizzare ChatGPT e altri strumenti di intelligenza artificiale generativa in modo responsabile e sicuro per il lavoro. Imparano quali informazioni possono e non possono divulgare in modo che loro e le loro aziende non corrano il rischio che dati sensibili vengano utilizzati in modo improprio da terze parti indesiderate. In caso contrario, le conseguenze sarebbero multe ai sensi del GDPR e il danno d'immagine associato, compresi gli attacchi informatici attraverso l'ingegneria sociale. In quest'ultimo caso, gli aggressori utilizzerebbero le informazioni condivise con gli strumenti per le loro ricerche, per sfruttare i punti deboli dei sistemi informatici o per utilizzare lo spear phishing per convincere i dipendenti a fare clic sui collegamenti memorizzati nelle e-mail.
Altro su KnowBe4.com
Informazioni su KnowBe4 KnowBe4, fornitore della più grande piattaforma al mondo per la formazione sulla consapevolezza della sicurezza e il phishing simulato, è utilizzato da oltre 60.000 aziende in tutto il mondo. Fondata dallo specialista in IT e sicurezza dei dati Stu Sjouwerman, KnowBe4 aiuta le organizzazioni ad affrontare l'elemento umano della sicurezza aumentando la consapevolezza di ransomware, frodi del CEO e altre tattiche di ingegneria sociale attraverso un nuovo approccio all'educazione alla sicurezza. Kevin Mitnick, uno specialista di sicurezza informatica riconosciuto a livello internazionale e Chief Hacking Officer di KnowBe4, ha contribuito a sviluppare la formazione KnowBe4 basata sulle sue ben documentate tattiche di ingegneria sociale. Decine di migliaia di organizzazioni si affidano a KnowBe4 per mobilitare i propri utenti finali come ultima linea di difesa.