Con l’aiuto dell’intelligenza artificiale, le minacce informatiche stanno assumendo una nuova forma. I criminali lo utilizzano per prendere di mira le identità e aggirare i meccanismi di autenticazione. Questi sono tutti nuovi vettori di attacco dell’IA.
L’intelligenza artificiale (AI) sta influenzando la società moderna a un ritmo senza precedenti. ChatGPT e altri strumenti di intelligenza artificiale generativa offrono molti vantaggi, ma possono essere utilizzati anche dagli aggressori e quindi causare molti danni. CyberArk Labs ha ora esaminato questo panorama di minacce in evoluzione per comprendere meglio cosa significano i nuovi vettori di attacco IA per i programmi di sicurezza dell’identità e per aiutare a sviluppare nuove strategie di difesa.
Nello specifico, CyberArk ha analizzato tre nuovi scenari di attacco.
Scenario AI 1: Vishing – Phishing vocale
I dipendenti sono diventati molto diffidenti nei confronti delle e-mail di phishing e sanno a cosa prestare attenzione. Quando si tratta di vishing, ovvero di voice phishing, questo scetticismo spesso non è presente, il che apre nuove opportunità per gli aggressori informatici. I modelli di sintesi vocale dell’intelligenza artificiale facilitano l’utilizzo di informazioni disponibili al pubblico, come le interviste agli amministratori delegati nei media, e l’impersonificazione dei dirigenti aziendali. Costruendo la fiducia con il loro obiettivo, possono ottenere l'accesso alle credenziali di accesso e ad altre informazioni sensibili.
Tali attacchi di vishing possono ora essere eseguiti su larga scala utilizzando la generazione automatizzata e in tempo reale di modelli di sintesi vocale. Tali deepfake basati sull’intelligenza artificiale sono già all’ordine del giorno e sono molto difficili da rilevare. Gli esperti di intelligenza artificiale prevedono che i contenuti generati dall’intelligenza artificiale finiranno per diventare indistinguibili dai contenuti generati dagli esseri umani.
Scenario AI 2: autenticazione biometrica
Il riconoscimento facciale è un’opzione comprovata di autenticazione biometrica per l’accesso a dispositivi e infrastrutture. Ma può anche essere superato in astuzia dagli aggressori che utilizzano l’intelligenza artificiale generativa per compromettere le identità e ottenere l’accesso a un ambiente aziendale. I modelli di intelligenza artificiale generativa esistono da anni. Quindi puoi porti la domanda: perché c’è così tanto clamore al riguardo adesso? In una parola: si sta ridimensionando. I modelli di oggi possono essere addestrati in misura incredibile. ChatGPT-3, ad esempio, ha 175 miliardi di parametri, più di cento volte di più di ChatGPT-2. Questa crescita esponenziale dei parametri supporta falsi realistici, anche in termini di riconoscimento facciale.
Scenario AI 3: malware polimorfico
In linea di principio, tutti i tipi di codice possono essere scritti con l’intelligenza artificiale generativa, compresi malware o malware polimorfici in grado di aggirare le soluzioni di sicurezza. Il malware polimorfico cambia la sua implementazione mantenendo la sua funzionalità originale. Ad esempio, è possibile che un utente malintenzionato possa utilizzare ChatGPT per generare un infostealer e modificare continuamente il codice. Se l'aggressore infetta un dispositivo con il malware e accede ai cookie di sessione memorizzati localmente, potrebbe impersonare l'utente del dispositivo, aggirare le difese di sicurezza e accedere ai sistemi di destinazione senza essere notato.
Le identità sono l’obiettivo principale
Le tre minacce alla sicurezza informatica basate sull’intelligenza artificiale mostrano che le identità sono l’obiettivo principale degli aggressori poiché forniscono il modo più efficace per ottenere l’accesso a sistemi e dati sensibili. L’utilizzo di una soluzione di sicurezza dell’identità è quindi essenziale per scongiurare il pericolo. Ciò autentica in modo sicuro le identità e le autorizza con le autorizzazioni corrette, dando loro l'accesso alle risorse critiche in modo strutturato. Anche le tecniche di difesa indipendenti dal malware sono importanti. Cioè, le aziende dovrebbero anche adottare misure preventive come l’implementazione di politiche di privilegio minimo o di accesso condizionato alle risorse locali (come l’archiviazione dei cookie) e alle risorse di rete (come le applicazioni web).
L’intelligenza artificiale supporterà anche la difesa in futuro
“Sebbene gli attacchi basati sull’intelligenza artificiale rappresentino una minaccia per la sicurezza IT, l’intelligenza artificiale è anche un potente strumento per il rilevamento e la difesa dalle minacce”, sottolinea Lavi Lazarovitz, vicepresidente Cyber Research presso CyberArk Labs. “L’intelligenza artificiale sarà una componente importante in futuro per affrontare il mutevole panorama delle minacce, migliorare l’agilità e aiutare le aziende a rimanere un passo avanti rispetto agli aggressori”.
Altro su CyberArk.com
A proposito di CyberArk CyberArk è il leader globale nella sicurezza delle identità. Con Privileged Access Management come componente principale, CyberArk fornisce una sicurezza completa per qualsiasi identità, umana o non umana, in applicazioni aziendali, ambienti di lavoro distribuiti, carichi di lavoro cloud ibridi e cicli di vita DevOps. Le aziende leader a livello mondiale si affidano a CyberArk per proteggere i dati, le infrastrutture e le applicazioni più importanti. Circa un terzo delle società DAX 30 e 20 delle società Euro Stoxx 50 utilizzano le soluzioni di CyberArk.