Conformità all'IA in azienda

Conformità all'IA in azienda

Condividi post

Le possibilità quasi illimitate degli LLM (Large Language Models) sono incredibilmente entusiasmanti. Ogni mese ci sono nuovi usi per questi strumenti che non sono sempre compatibili con le politiche di conformità aziendale.

Le possibilità vanno dalla creazione rapida ed economica di miniature per i post del blog, al comportamento delle persone che fondamentalmente si oppongono e criticano un post del blog, alla traduzione coerente dei post del blog in altre lingue, pur comprendendo appieno il contenuto. Anche nel mondo al di là dei post sui blog, questo nascente strumento ha un enorme potenziale. Ma potenziale significa anche che nessuno sa cosa finirà per fare la tecnologia, e questo crea rischi aziendali seri e tangibili.

riconoscere i rischi

Quando si tratta di LLM, molte persone pensano innanzitutto a ChatGPT di OpenAI come allo strumento più accessibile e facile da usare oggi disponibile. ChatGPT consente a chiunque di porre domande tramite un browser Web e genera risposte rapide. Per l'utente medio è fantastico, ma per qualsiasi azienda questa facilità d'uso presenta tre seri problemi. Tutti i dati inviati a ChatGPT vengono archiviati da OpenAI per scopi di qualità e monitoraggio, la fonte di ogni risposta è sconosciuta e la risposta potrebbe essere interamente fabbricata.

OpenAI tiene traccia dell'input dell'utente per migliorare il suo prodotto e prevenire possibili abusi del sistema. Questo è un comportamento perfettamente ragionevole da parte di OpenAI, ma non c'è motivo di pensare che OpenAI sia particolarmente attento a questi dati. Inoltre, OpenAI non può davvero controllare quali dati vengono inviati a ChatGPT, quindi finisce per archiviare molte informazioni che in realtà non dovrebbero essere archiviate affatto. Ad esempio, è stato recentemente rivelato che i dipendenti Samsung hanno utilizzato ChatGPT per risolvere i problemi del software proprietario e riassumere i registri delle sessioni.

Fonti incerte

Il secondo problema è che ChatGPT risponde alle richieste senza citare le fonti per le sue risposte. ChatGPT fa affermazioni basate sui suoi risultati e sfortunatamente gli utenti devono prenderlo per quello che è. Queste informazioni potrebbero essere protette da copyright e gli utenti non lo saprebbero fino a quando non ricevessero una lettera dagli avvocati che rivendicano la violazione del copyright. Getty Images ha citato in giudizio il creatore di uno strumento utilizzato per generare immagini LLM per violazione del copyright dopo che è stato scoperto che lo strumento aveva generato immagini con una filigrana Getty Images. Non è irragionevole sostenere che anche gli utenti finali che utilizzano queste immagini potrebbero essere ritenuti responsabili. La generazione del codice è un'altra area di preoccupazione, sebbene non ci siano ancora esempi concreti, ma sembra inevitabile.

Risposte inventate

Il problema più grande con ChatGPT, tuttavia, è che questi LLM possono avere "allucinazioni", che il gergo del settore chiama "sfacciate bugie". Poiché ChatGPT non ha trasparenza su come arrivano le risposte, gli utenti devono essere in grado di analizzare criticamente le risposte per decidere se sono vere, poiché ChatGPT e i suoi simili risponderanno sempre con assoluta certezza. Ciò può avere conseguenze che vanno dall'imbarazzante inizio di Google a un professore che ha bocciato tutti i suoi studenti dopo che ChatGPT ha affermato falsamente di aver scritto documenti per studenti - all'esempio più eclatante in cui un avvocato ha utilizzato ChatGPT per redigere la sua memoria in tribunale e ChatGPT ha inventato sei fonti completamente fasulle per supportare l'argomento. Il cattivo esempio di Google ha causato un calo della sua valutazione di mercato di $ 100 miliardi, la credibilità del professore universitario è andata persa e una causa multimilionaria è stata respinta in tribunale. Queste sono conseguenze estremamente gravi che dovrebbero essere effettivamente evitate.

garantire la conformità

Le aziende stanno rispondendo a questi fatti con politiche che vietano l'uso di OpenAI senza autorizzazione. Tuttavia, è difficile tenere traccia della conformità a queste politiche poiché il traffico passa attraverso un browser crittografato senza bisogno di software.

Vectra AI è in grado di rilevare queste attività sulla rete utilizzando sensori di rete per il rilevamento. Vectra NDR è progettato per monitorare tutto il traffico di rete all'interno dell'azienda, con sensori accuratamente posizionati che monitorano il traffico in entrata e in uscita dalla rete, ma anche all'interno della rete stessa.Questa profondità di analisi è la base per il potente framework di rilevamento basato sull'intelligenza artificiale e consente anche approfondimenti approfonditi sulla conformità, riassunti nella dashboard sull'utilizzo di ChatGPT. La dashboard, che Vectra sta mettendo gratuitamente a disposizione di tutti i clienti della piattaforma, mostra gli host nell'ambiente che interagiscono attivamente con OpenAI monitorando le query DNS ai server OpenAI effettuate da qualsiasi host. Non solo i responsabili della conformità possono visualizzare rapidamente un elenco di persone che hanno account con OpenAI o hanno espresso interesse, ma possono anche monitorare attivamente chi sta utilizzando esattamente un sistema e con quale frequenza.

visualizzare l'accesso

La dashboard utilizza la tecnologia di mappatura degli ID host brevettata da Vectra per tracciare questi utenti in modo approfondito. Anche se gli indirizzi IP delle macchine cambiano o un notebook si unisce a una nuova rete, Vectra lo traccia come la stessa macchina, quindi la dashboard mostra esattamente la frequenza con cui un dispositivo accede a ChatGPT, il che consente anche di vedere rapidamente chi Vectra pensa sia il probabile proprietario di una macchina. Con questa dashboard, i responsabili della sicurezza non solo vedono quali host utilizzano ChatGPT, ma sanno anche chi contattare in merito e dispongono di tali informazioni in pochi minuti, non ore.

Questo è solo un esempio di come la piattaforma Vectra fornisca approfondimenti su ciò che sta accadendo nell'organizzazione e su come può aiutare con la conformità monitorando i problemi di conformità attivi. Questo è altrettanto affidabile del dashboard di scadenza del certificato, che monitora i certificati in scadenza utilizzati attivamente in azienda, o del dashboard di Azure AD Chaos, che monitora i bypass dell'autenticazione a più fattori. Vectra può fornire ai responsabili della conformità informazioni preziose non solo su ciò che non è configurato correttamente nell'organizzazione, ma anche sui rischi per la sicurezza attivamente presenti.

Altro su Vectra.com

 


A proposito di Vetra

Vectra è un fornitore leader di rilevamento e risposta alle minacce per le imprese ibride e multi-cloud. La piattaforma Vectra utilizza l'intelligenza artificiale per rilevare rapidamente le minacce nel cloud pubblico, nelle applicazioni di identità e SaaS e nei data center. Solo Vectra ottimizza l'intelligenza artificiale per riconoscere i metodi degli aggressori - i TTP (tattiche, tecniche e processi) che sono alla base di tutti gli attacchi - piuttosto che semplicemente allertare su "diversi".


 

Articoli relativi all'argomento

Piattaforma di sicurezza informatica con protezione per ambienti 5G

Lo specialista della sicurezza informatica Trend Micro svela il suo approccio basato su piattaforma per proteggere la superficie di attacco in continua espansione delle organizzazioni, inclusa la sicurezza ➡ Leggi di più

Manipolazione dei dati, il pericolo sottovalutato

Ogni anno, il 31 marzo, la Giornata mondiale del backup serve a ricordare l'importanza di backup aggiornati e facilmente accessibili ➡ Leggi di più

Le stampanti come rischio per la sicurezza

I parchi stampanti aziendali stanno diventando sempre più un punto cieco e pongono enormi problemi in termini di efficienza e sicurezza. ➡ Leggi di più

La legge sull’AI e le sue conseguenze sulla protezione dei dati

Con la legge sull’AI è stata approvata la prima legge sull’IA che concede ai produttori di applicazioni AI un periodo di sei mesi e mezzo ➡ Leggi di più

Sistemi operativi Windows: quasi due milioni di computer a rischio

Non sono più disponibili aggiornamenti per i sistemi operativi Windows 7 e 8. Ciò significa lacune di sicurezza aperte e quindi utile e ➡ Leggi di più

L'intelligenza artificiale su Enterprise Storage combatte il ransomware in tempo reale

NetApp è uno dei primi a integrare l'intelligenza artificiale (AI) e il machine learning (ML) direttamente nello storage primario per combattere il ransomware ➡ Leggi di più

Suite di prodotti DSPM per la sicurezza dei dati Zero Trust

Il Data Security Posture Management – ​​in breve DSPM – è fondamentale per le aziende per garantire la resilienza informatica contro la moltitudine ➡ Leggi di più

Crittografia dei dati: maggiore sicurezza sulle piattaforme cloud

Le piattaforme online sono spesso bersaglio di attacchi informatici, come recentemente è successo a Trello. 5 suggerimenti per garantire una crittografia dei dati più efficace nel cloud ➡ Leggi di più