Il percorso degli utenti verso l’intelligenza artificiale è molto breve; l’ingresso è graduale, facile e spesso gratuito. E ciò ha enormi conseguenze sotto forma di shadow IT, che dovrebbe essere familiare alle aziende fin dalle prime fasi del cloud.
Il potenziale dell’intelligenza artificiale generativa ha scatenato una vera e propria corsa all’oro che nessuno vuole perdersi. Ciò è dimostrato da uno studio condotto da Censuswide per conto di Cohesity, un fornitore globale di gestione e sicurezza dei dati basata sull’intelligenza artificiale. L’86% delle 903 aziende intervistate utilizza già tecnologie di intelligenza artificiale generativa.
Evitare la perdita di controllo
In passato, i servizi cloud pubblici hanno innescato una corsa all’oro, con i dipendenti che caricavano i dati aziendali su servizi esterni con pochi clic. L’IT ha temporaneamente perso il controllo dei dati aziendali e ha dovuto accettare rischi in termini di protezione e conformità. La nascita dello shadow IT.
Gli intervistati ora si aspettano qualcosa di simile con l’intelligenza artificiale, come mostra il sondaggio. I rischi legati alla conformità e alla protezione dei dati sono citati come le maggiori preoccupazioni rispettivamente dal 34% e dal 31%. Il 30% dei rappresentanti aziendali teme che l’intelligenza artificiale possa anche fornire risultati imprecisi o falsi. Dopotutto, la maggior parte degli utenti non sa ancora come interagire in modo ottimale con i motori AI. E, ultimo ma non meno importante, le soluzioni di intelligenza artificiale generativa sono ancora nuove e non tutte sono ancora completamente sviluppate.
I media hanno spesso parlato di aziende che hanno avuto questa esperienza. Nell'aprile 2023, gli ingegneri di Samsung hanno caricato i segreti aziendali su ChatGPT, rendendoli il materiale didattico di un'intelligenza artificiale globale: il caso peggiore dal punto di vista della conformità e della proprietà intellettuale.
Poiché i cicli di innovazione nell’intelligenza artificiale sono estremamente brevi, la gamma di nuovi approcci, concetti e soluzioni sta esplodendo. I team di sicurezza e IT trovano estremamente difficile tenere il passo con questo ritmo e mettere alla prova le rispettive offerte. Spesso non vengono nemmeno coinvolti perché, come il cloud, un'unità aziendale utilizza già da tempo un servizio: dopo lo shadow IT sta ora emergendo l'intelligenza artificiale ombra e con essa un'enorme perdita di controllo.
Rendere le persone consapevoli dei pericoli
Allo stesso tempo si stanno diffondendo nuove forme di possibile abuso dell’intelligenza artificiale. I ricercatori della Cornell University negli USA e del Technion Institute in Israele hanno sviluppato Morris II, un worm informatico che si diffonde autonomamente nell'ecosistema degli assistenti pubblici di intelligenza artificiale. I ricercatori sono riusciti a insegnare agli algoritmi del worm a bypassare le misure di sicurezza di tre importanti modelli di intelligenza artificiale: Gemini Pro di Google, GPT 4.0 di OpenAI e LLaVA. Il worm è riuscito anche a estrarre dati sensibili come nomi, numeri di telefono e dettagli di carte di credito.
I ricercatori condividono i loro risultati con gli operatori affinché le lacune possano essere colmate e le misure di sicurezza possano essere migliorate. Ma qui si sta delineando chiaramente un nuovo fronte aperto sul campo della battaglia informatica, dove hacker e provider si combattono da decenni con malware, spam e ransomware.
Velocità sì, frenesia no
I team IT non saranno in grado di riportare indietro l’orologio e tenere l’intelligenza artificiale fuori dalle reti aziendali. Pertanto, i divieti di solito non rappresentano un approccio appropriato. Ma l’IT non può e non deve essere tentato di affrettarsi e prendere decisioni rapide, ma piuttosto riprendere il controllo sui propri dati e sull’intelligenza artificiale.
Gli approcci all’intelligenza artificiale guidati dai fornitori come Cohesity Gaia sono spesso, per definizione, legati al proprio ambiente e rivelano come funzionano. Ciò consente ai team IT di valutare accuratamente il rischio ed escludere la possibile condivisione esterna dei dati. L'intelligenza artificiale è autonoma e può essere introdotta in modo controllato. I team IT possono anche essere molto selettivi su quali sistemi interni e fonti di dati esaminino attivamente i moduli AI. Puoi iniziare con un piccolo cluster e introdurre l’intelligenza artificiale in modo altamente controllato.
Il Cohesity Data Cloud sottostante utilizza controlli di accesso granulari basati sui ruoli e un approccio zero trust per garantire che solo gli utenti e i modelli autorizzati abbiano accesso ai dati. In questo modo, i modelli di intelligenza artificiale già introdotti possono essere domati da terze parti specificando esattamente a quali dati questi modelli possono accedere. Un vantaggio decisivo per rallentare la dinamica incontrollata dell’IA, perché i flussi di dati possono essere controllati con precisione, le informazioni sensibili protette e i requisiti legali rispettati.
Maggiori informazioni su Cohesity.com
A proposito di coesione La coerenza semplifica enormemente la gestione dei dati. La soluzione semplifica la protezione, la gestione e la derivazione di valore dai dati, nel data center, nell'edge e nel cloud. Offriamo una suite completa di servizi consolidati su una piattaforma dati multi-cloud: protezione e ripristino dei dati, ripristino di emergenza, servizi di file e oggetti, sviluppo/test e conformità dei dati, sicurezza e analisi. Ciò riduce la complessità ed evita la frammentazione dei dati di massa. Cohesity può essere fornito come servizio, come soluzione autogestita o tramite partner Cohesity.
Articoli relativi all'argomento