Il chatbot OpenAI ChatGPT dimostra come l'intelligenza artificiale e l'apprendimento automatico possano determinare direttamente la vita e la quotidianità. Gli utenti IT avanzati utilizzeranno tali strumenti per i loro scopi. E con ciò, purtroppo, anche i criminali informatici.
Il modello ChatGPT AI di OpenAI si basa sull'apprendimento senza supervisione. Con questo approccio ML, un modello AI viene alimentato con un ampio set di dati senza etichetta. Il vasto corpus di materiale di libri, articoli e siti Web si basa su fonti precedenti al 2021 e non ha collegamenti con l'attuale Internet. Ma questo è già sufficiente per apprendere le strutture del linguaggio naturale e per offrire risposte a domande che sembrano ingannevolmente umane.
Anche gli hacker traggono vantaggio dalle IA
Gli hacker possono trarre vantaggio da tale aiuto, anche se è ancora necessaria cautela con previsioni concrete sull'uso. Cinque casi esemplificativi delineano già le possibilità del futuro:
Phishing automatizzato:
Gli hacker possono utilizzare ChatGPT per lanciare attacchi di phishing automatizzati che raggiungono un nuovo livello. Gli errori di ortografia e grammatica, che in precedenza erano un'ovvia indicazione di tali attacchi, possono ora essere esclusi. Dato che gli autori di molte e-mail di phishing non parlano né l'inglese né il tedesco come lingua madre, ciò dovrebbe avere conseguenze importanti sulla qualità di tali e-mail in generale. ChatGPT può scrivere messaggi in una grammatica perfetta. La cerchia delle vittime che possono essere ingannate si sta espandendo a passi da gigante. Può scrivere codice per automatizzare il processo di scrittura.
finzione di identità
ChatGPT può imitare persone o organizzazioni reali in modo ingannevolmente reale. Ciò incoraggerà il furto di identità o altre forme di frode. Gli hacker utilizzano il chatbot per inviare quelli che sembrano essere messaggi di un amico o collega, chiedendo informazioni sensibili e ottenendo così l'accesso all'account utente di qualcun altro.
Ingegneria sociale
ChatGPT e altri chatbot AI possono rendere gli attacchi di social engineering più mirati. Gli hacker manipolano i destinatari con conversazioni ancora più personalizzate e apparentemente legittime. Fino ad ora, un certo grado di intimità non era realisticamente possibile senza il contatto fisico personale. Al più tardi, questo non è più il caso quando lo strumento utilizza informazioni da Internet. Le risposte del bot sono così simili a quelle umane che difficilmente differiscono da una risposta umana.
Supporto finto
Le aziende utilizzeranno chatbot AI avanzati per il contatto con i clienti. Gli hacker saranno i free rider e agiranno da soli, ad esempio con un'imitazione ingannevolmente simile di un aspetto bancario fraudolento e un servizio clienti apparentemente umano. Ancora una volta, l'obiettivo è acquisire informazioni sensibili. Il malware bancario è stato un pioniere nello sviluppo di nuovi metodi di attacco in passato.
Sviluppo accelerato degli attacchi, fino alla guida al codice
Forbes ha già riportato i primi casi. Apparentemente, gli hacker utilizzano il bot per scrivere codice dannoso per crittografare ed esfiltrare i dati. ChatGPT ha familiarità con i linguaggi di codifica più diffusi e potrebbe ridurre i tempi di sviluppo degli attacchi. Un hacker con la necessaria conoscenza specialistica delle vulnerabilità della rete può utilizzare il bot per colmare più rapidamente le lacune nella scrittura del suo codice. Il reverse engineering di un attacco informatico che ha avuto luogo può essere più semplice. L'intelligenza artificiale può aiutare a modificare il codice, migliorarlo e adattare meglio gli attacchi a un obiettivo prescelto.
ChatGPT non è ancora in grado di scrivere codice privo di errori, ma può essere d'aiuto. È preoccupante che le misure di sicurezza non siano necessariamente efficaci. L'"interruttore di sicurezza" può essere bypassato. Lo switch mira a impedire al modello AI di scrivere testi violenti, discriminatori o sessualmente espliciti. È progettato per aiutare a identificare quelle domande poste dall'utente che cercano chiaramente risposte che servono a scopi nefasti. Il chatbot rifiuta ancora le richieste dirette di scrivere codice Python per sfruttare una vulnerabilità Log4j. Tuttavia, un utente esperto può aggirare il meccanismo di protezione. Ad esempio, una possibilità è porre la stessa domanda in una lingua diversa. Trova gli indizi per fare le domande giuste.
Un nuovo livello in futuro
Gli attacchi supportati dall'intelligenza artificiale raggiungeranno un nuovo livello in futuro. Le vittime devono essere più sospettose. Le classiche e-mail di phishing, che sono il preludio poco appariscente di molti, se non della maggior parte, di gravi attacchi, stanno diventando sempre più ingannevoli. D'altra parte, solo la cautela o una maggiore economia dei dati su Internet o nei social media possono aiutare. La frode informatica basata sul dirottamento di un'identità diventa più ingannevole nella misura in cui gli hacker dispongono di informazioni sul presunto mittente di un messaggio dannoso. I chatbot che agiscono come nuovi motori di ricerca creano una nuova qualità per i meccanismi di attacco esistenti.
Altro su Bitdefender.com
Informazioni su Bitdefender Bitdefender è un leader globale nelle soluzioni di sicurezza informatica e nel software antivirus, proteggendo oltre 500 milioni di sistemi in più di 150 paesi. Dalla sua fondazione nel 2001, le innovazioni dell'azienda hanno regolarmente fornito eccellenti prodotti di sicurezza e protezione intelligente per dispositivi, reti e servizi cloud per clienti privati e aziende. In qualità di fornitore preferito, la tecnologia Bitdefender si trova nel 38% delle soluzioni di sicurezza implementate nel mondo ed è affidabile e riconosciuta da professionisti del settore, produttori e clienti. www.bitdefender.de