Compliance mit KI im Unternehmen

Compliance mit KI im Unternehmen

Beitrag teilen

Die geradezu grenzenlosen Möglichkeiten von LLMs (Large Language Models) sind unglaublich aufregend. Jeden Monat gibt es neue Einsatzmöglichkeiten für diese Tools, die mit den Compliance-Richtlinien von Unternehmen nicht immer vereinbar sind.

Die Möglichkeiten reichenvon der schnellen und kostengünstigen Erstellung von Miniaturansichten für Blogposts über das Verhalten von Personen, die grundsätzlich gegen einen Blogpost sind und Kritik üben, bis hin zur kohärenten Übersetzung von Blogposts in andere Sprachen – und das bei vollem Verständnis des Inhalts. Selbst in der Welt jenseits von Blogposts birgt dieses im Entstehen begriffene Instrument ein enormes Potenzial. Potenzial bedeutet aber auch, dass niemand nicht weiß, was die Technologie am Ende tun wird, und das schafft ernsthafte, greifbare Geschäftsrisiken.

Anzeige

Risiken erkennen

Bei LLM denke viele Menschen zuerst an ChatGPT von OpenAI als das derzeit am einfachsten zugängliche und zu bedienende Tool. Mit ChatGPT kann jeder über einen Webbrowser Fragen stellen, und es generiert schnelle Antworten. Für den Durchschnittsnutzer ist das großartig, aber für jedes Unternehmen birgt diese Benutzerfreundlichkeit drei ernsthafte Probleme. Alle an ChatGPT gesendeten Daten werden von OpenAI zu Qualitäts- und Nachverfolgungszwecken gespeichert, die Quelle jeder Antwort ist unbekannt und die Antwort kann komplett erfunden sein.

OpenAI verfolgt die Eingaben der Nutzer, um sein Produkt zu verbessern und um einen eventuellen Missbrauch des Systems zu verhindern. Dies ist ein völlig vernünftiges Verhalten von OpenAI, aber es gibt keinen Grund zu glauben, dass OpenAI mit diesen Daten besonders sorgfältig umgeht. Darüber hinaus kann OpenAI nicht wirklich kontrollieren, welche Daten an ChatGPT übermittelt werden, so dass es Ende viele Informationen speichert, die eigentlich gar nicht gespeichert werden sollten. So kam zum Beispiel kürzlich ans Tageslicht, dass Samsung-Mitarbeiter ChatGPT zur Fehlersuche in firmeneigener Software und zur Zusammenfassung von Sitzungsprotokollen verwendet haben.

Unsichere Quellen

Das zweite Problem ist, dass ChatGPT Anfragen beantwortet, ohne Quellen für seine Antworten zu nennen. ChatGPT macht Aussagen, die auf seinen Erkenntnissen beruhen, und leider müssen Benutzer dies so hinnehmen, wie es ist. Diese Informationen könnten urheberrechtlich geschützt sein, und Benutzer würden es nicht wissen, bis sie ein Schreiben von Anwälten erhalten, die eine Verletzung des Urheberrechts behaupten. Getty Images hat den Ersteller eines Tools zur Erzeugung von LLM-Bildern wegen Urheberrechtsverletzung verklagt, nachdem festgestellt wurde, dass das Tool Bilder mit einem Wasserzeichen von Getty Images erzeugt hat. Es ist nicht unvernünftig zu argumentieren, dass alle Endnutzer, die diese Bilder verwenden, ebenfalls haftbar gemacht werden könnten. Die Codegenerierung ist ein weiterer Bereich, der Anlass zur Sorge gibt, auch wenn es bisher noch keine konkreten Beispiele gab, aber es scheint unvermeidlich.

Erfundene Antworten

Das größte Problem bei ChatGPT ist jedoch, dass diese LLMs „Halluzinationen“ haben können, was im Branchenjargon als „unverhohlene Lügen“ bezeichnet wird. Da ChatGPT keine Transparenz darüber hat, wie es zu den Antworten kommt, müssen die Nutzer in der Lage sein, die Antworten kritisch zu analysieren, um zu entscheiden, ob sie wahr sind, da ChatGPT und seinesgleichen immer mit absoluter Sicherheit antworten werden. Das kann Folgen haben, von Googles peinlichem Start bis hin zu einem Professor, der alle seine Studenten durchfallen ließ, nachdem ChatGPT fälschlicherweise behauptet hatte, studentische Arbeiten geschrieben zu haben – bis hin zum ungeheuerlichsten Beispiel, bei dem ein Anwalt ChatGPT benutzte, um seinen Schriftsatz vor Gericht zu verfassen, und ChatGPT sechs völlig falsche Quellen erfand, um das Argument zu stützen. Googles schlechtes Beispiel führte dazu, dass seine Marktbewertung um 100 Milliarden US-Dollar sank, der Universitätsprofessor seine Glaubwürdigkeit einbüßte und eine millionenschwere Klage vor Gericht möglicherweise abgewiesen wurde. Dies sind äußerst schwerwiegende Folgen, die eigentlich zu vermeiden wären.

Compliance sicherstellen

Unternehmen reagieren auf diese Tatsachen mit Richtlinien, die die Verwendung von OpenAI ohne Genehmigung verbieten. Es ist jedoch schwierig, die Einhaltung dieser Richtlinien zu verfolgen, da der Datenverkehr über einen verschlüsselten Browser läuft, ohne dass eine Software erforderlich ist.

Vectra AI ist in der Lage, diese Aktivitäten im Netzwerk zu erkennen, indem es Netzwerksensoren zur Erkennung nutzt. Vectra NDR wurde entwickelt, um den gesamten Netzwerkverkehr im Unternehmen zu überwachen, mit sorgfältig platzierten Sensoren, die den Verkehr in und aus dem Netzwerk überwachen, aber auch innerhalb des Netzwerks selbst. Diese Analysetiefe ist die Grundlage für das leistungsfähige KI-gesteuerte Erkennungs-Framework und ermöglicht zudem aufschlussreiche Einblicke in die Compliance, zusammengefasst im ChatGPT Usage Dashboard. Das Dashboard, das Vectra allen Plattformkunden kostenlos zur Verfügung steht, zeigt die Hosts in der Umgebung an, die aktiv mit OpenAI interagieren, indem es DNS-Anfragen an OpenAI-Server verfolgt, die von beliebigen Hosts gestellt werden. So können Compliance-Beauftragte nicht nur schnell eine Liste von Personen einsehen, die Konten bei OpenAI haben oder ein Interesse angemeldet haben, sondern auch aktiv überwachen, wer genau ein System nutzt und wie oft.

Zugriffe visualisieren

Das Dashboard nutzt die patentierte Vectra-Technologie zur Host-ID-Zuordnung, um diese Nutzer bis in die Tiefe zu verfolgen. Selbst wenn sich die IP-Adressen von Rechnern ändern oder ein Notebook einem neuen Netzwerk beitritt, verfolgt Vectra dies als denselben Rechner, so dass das Dashboard genau anzeigt, wie oft ein Gerät auf ChatGPT zugreift – was auch ermöglicht, schnell zu sehen, wen Vectra für den wahrscheinlichen Besitzer eines Rechners hält. Mit diesem Dashboard sehen Sicherheitsverantwortliche nicht nur, welche Hosts ChatGPT verwenden, sondern wissen auch, wen sie diesbezüglich kontaktieren müssen, und sie haben diese Informationen innerhalb von Minuten, nicht Stunden.

Dies ist nur ein Beispiel dafür, wie die Vectra-Plattform tiefe Einblicke in die Aktivitäten im Unternehmen bietet und zeigt, wie sie durch die Verfolgung aktiver Compliance-Probleme bei der Einhaltung von Vorschriften helfen kann. Dies erfolgt ebenso zuverlässig, wie das Certificate Expiry Dashboard, das ablaufende Zertifikate überwacht, die im Unternehmen aktiv genutzt werden, oder das Azure AD Chaos Dashboard, das MFA-Umgehungen überwacht. Vectra kann Compliance-Verantwortlichen wertvolle Einblicke bieten, nicht nur was im Unternehmen falsch konfiguriert ist, sondern welche Sicherheitsrisiken aktiv bestehen.

Mehr bei Vectra.com

 


Über Vectra

Vectra ist ein führender Anbieter von Bedrohungserkennung und -abwehr für Hybrid- und Multi-Cloud-Unternehmen. Die Vectra-Plattform nutzt KI zur schnellen Erkennung von Bedrohungen in der Public Cloud, bei Identitäts- und SaaS-Anwendungen sowie in Rechenzentren. Nur Vectra optimiert die KI, um Angreifermethoden – die TTPs (Taktiken, Techniken und Prozesse), die allen Angriffen zugrunde liegen – zu erkennen, anstatt einfach nur bei „anders“ zu alarmieren.


 

Passende Artikel zum Thema

Security Report deckt Missbrauch von Blockchains für Malware auf

Der neue Internet Security Report von WatchGuard deckt unter anderem die Instrumentalisierung von Blockchains als Hosts für schädliche Inhalte auf. ➡ Weiterlesen

PKI-Zertifikate sicher verwalten

Mit der Zunahme von Hard- und Software nimmt die Anzahl von Zertifikaten für diese Geräte zu. Ein Cybersicherheitsunternehmen hat jetzt ➡ Weiterlesen

Cloud-Sicherheitsstrategien: eBook gibt Tipps

Cloud-Computing nimmt immer weiter zu. Das ebook erklärt effektive Cloud-Sicherheitsstrategien, inklusive Identitätsmodernisierung, KI-Herausforderungen und Secure-by-Design-Strategien, und bietet Unternehmen umsetzbare Erkenntnisse ➡ Weiterlesen

Mit KI-Technologie Geschäftsanwendungen sicher verwalten

Ein  Anbieter von Cybersicherheitslösungen, launcht die neueste Version seiner Sicherheitsmanagement-Plattform. Mithilfe von moderner KI-Technologie lassen sich Geschäftsanwendungen schnell und präzise ➡ Weiterlesen

Open-Source-Tool zur Analyse von Linux-Malware

Mit dem neuen Open-Source-Tool können SOC-Teams und Entwickler die Sicherheit überwachen und Bedrohungen untersuchen. Traceeshark kombiniert die dynamische Analyse von ➡ Weiterlesen

Cyberkriminalität: Aktuelle Bedrohungen und Taktiken

Ein Anbieter im Bereich Connectivity Cloud stellt seine Forschungsdaten zur weltweiten Cyberkriminalität der Allgemeinheit zur Verfügung. Sie haben Angreifer aufgespürt, ➡ Weiterlesen

NIS2: Veraltete Software ist ein Risiko

NIS2 betrifft Unternehmen, die zur kritischen Infrastruktur gehören. Sie alle müssen prüfen, ob die Software ihrer Geräte auf dem neuesten ➡ Weiterlesen

Quishing: Phishing mit QR-Codes

In Anlehnung an Albert Einstein ließe sich wohl sagen, dass der kriminelle Einfallsreichtum der Menschen unendlich ist. Der neueste Trend ➡ Weiterlesen