Compliance mit KI im Unternehmen

Compliance mit KI im Unternehmen

Beitrag teilen

Die geradezu grenzenlosen Möglichkeiten von LLMs (Large Language Models) sind unglaublich aufregend. Jeden Monat gibt es neue Einsatzmöglichkeiten für diese Tools, die mit den Compliance-Richtlinien von Unternehmen nicht immer vereinbar sind.

Die Möglichkeiten reichenvon der schnellen und kostengünstigen Erstellung von Miniaturansichten für Blogposts über das Verhalten von Personen, die grundsätzlich gegen einen Blogpost sind und Kritik üben, bis hin zur kohärenten Übersetzung von Blogposts in andere Sprachen – und das bei vollem Verständnis des Inhalts. Selbst in der Welt jenseits von Blogposts birgt dieses im Entstehen begriffene Instrument ein enormes Potenzial. Potenzial bedeutet aber auch, dass niemand nicht weiß, was die Technologie am Ende tun wird, und das schafft ernsthafte, greifbare Geschäftsrisiken.

Risiken erkennen

Bei LLM denke viele Menschen zuerst an ChatGPT von OpenAI als das derzeit am einfachsten zugängliche und zu bedienende Tool. Mit ChatGPT kann jeder über einen Webbrowser Fragen stellen, und es generiert schnelle Antworten. Für den Durchschnittsnutzer ist das großartig, aber für jedes Unternehmen birgt diese Benutzerfreundlichkeit drei ernsthafte Probleme. Alle an ChatGPT gesendeten Daten werden von OpenAI zu Qualitäts- und Nachverfolgungszwecken gespeichert, die Quelle jeder Antwort ist unbekannt und die Antwort kann komplett erfunden sein.

OpenAI verfolgt die Eingaben der Nutzer, um sein Produkt zu verbessern und um einen eventuellen Missbrauch des Systems zu verhindern. Dies ist ein völlig vernünftiges Verhalten von OpenAI, aber es gibt keinen Grund zu glauben, dass OpenAI mit diesen Daten besonders sorgfältig umgeht. Darüber hinaus kann OpenAI nicht wirklich kontrollieren, welche Daten an ChatGPT übermittelt werden, so dass es Ende viele Informationen speichert, die eigentlich gar nicht gespeichert werden sollten. So kam zum Beispiel kürzlich ans Tageslicht, dass Samsung-Mitarbeiter ChatGPT zur Fehlersuche in firmeneigener Software und zur Zusammenfassung von Sitzungsprotokollen verwendet haben.

Unsichere Quellen

Das zweite Problem ist, dass ChatGPT Anfragen beantwortet, ohne Quellen für seine Antworten zu nennen. ChatGPT macht Aussagen, die auf seinen Erkenntnissen beruhen, und leider müssen Benutzer dies so hinnehmen, wie es ist. Diese Informationen könnten urheberrechtlich geschützt sein, und Benutzer würden es nicht wissen, bis sie ein Schreiben von Anwälten erhalten, die eine Verletzung des Urheberrechts behaupten. Getty Images hat den Ersteller eines Tools zur Erzeugung von LLM-Bildern wegen Urheberrechtsverletzung verklagt, nachdem festgestellt wurde, dass das Tool Bilder mit einem Wasserzeichen von Getty Images erzeugt hat. Es ist nicht unvernünftig zu argumentieren, dass alle Endnutzer, die diese Bilder verwenden, ebenfalls haftbar gemacht werden könnten. Die Codegenerierung ist ein weiterer Bereich, der Anlass zur Sorge gibt, auch wenn es bisher noch keine konkreten Beispiele gab, aber es scheint unvermeidlich.

Erfundene Antworten

Das größte Problem bei ChatGPT ist jedoch, dass diese LLMs „Halluzinationen“ haben können, was im Branchenjargon als „unverhohlene Lügen“ bezeichnet wird. Da ChatGPT keine Transparenz darüber hat, wie es zu den Antworten kommt, müssen die Nutzer in der Lage sein, die Antworten kritisch zu analysieren, um zu entscheiden, ob sie wahr sind, da ChatGPT und seinesgleichen immer mit absoluter Sicherheit antworten werden. Das kann Folgen haben, von Googles peinlichem Start bis hin zu einem Professor, der alle seine Studenten durchfallen ließ, nachdem ChatGPT fälschlicherweise behauptet hatte, studentische Arbeiten geschrieben zu haben – bis hin zum ungeheuerlichsten Beispiel, bei dem ein Anwalt ChatGPT benutzte, um seinen Schriftsatz vor Gericht zu verfassen, und ChatGPT sechs völlig falsche Quellen erfand, um das Argument zu stützen. Googles schlechtes Beispiel führte dazu, dass seine Marktbewertung um 100 Milliarden US-Dollar sank, der Universitätsprofessor seine Glaubwürdigkeit einbüßte und eine millionenschwere Klage vor Gericht möglicherweise abgewiesen wurde. Dies sind äußerst schwerwiegende Folgen, die eigentlich zu vermeiden wären.

Compliance sicherstellen

Unternehmen reagieren auf diese Tatsachen mit Richtlinien, die die Verwendung von OpenAI ohne Genehmigung verbieten. Es ist jedoch schwierig, die Einhaltung dieser Richtlinien zu verfolgen, da der Datenverkehr über einen verschlüsselten Browser läuft, ohne dass eine Software erforderlich ist.

Vectra AI ist in der Lage, diese Aktivitäten im Netzwerk zu erkennen, indem es Netzwerksensoren zur Erkennung nutzt. Vectra NDR wurde entwickelt, um den gesamten Netzwerkverkehr im Unternehmen zu überwachen, mit sorgfältig platzierten Sensoren, die den Verkehr in und aus dem Netzwerk überwachen, aber auch innerhalb des Netzwerks selbst. Diese Analysetiefe ist die Grundlage für das leistungsfähige KI-gesteuerte Erkennungs-Framework und ermöglicht zudem aufschlussreiche Einblicke in die Compliance, zusammengefasst im ChatGPT Usage Dashboard. Das Dashboard, das Vectra allen Plattformkunden kostenlos zur Verfügung steht, zeigt die Hosts in der Umgebung an, die aktiv mit OpenAI interagieren, indem es DNS-Anfragen an OpenAI-Server verfolgt, die von beliebigen Hosts gestellt werden. So können Compliance-Beauftragte nicht nur schnell eine Liste von Personen einsehen, die Konten bei OpenAI haben oder ein Interesse angemeldet haben, sondern auch aktiv überwachen, wer genau ein System nutzt und wie oft.

Zugriffe visualisieren

Das Dashboard nutzt die patentierte Vectra-Technologie zur Host-ID-Zuordnung, um diese Nutzer bis in die Tiefe zu verfolgen. Selbst wenn sich die IP-Adressen von Rechnern ändern oder ein Notebook einem neuen Netzwerk beitritt, verfolgt Vectra dies als denselben Rechner, so dass das Dashboard genau anzeigt, wie oft ein Gerät auf ChatGPT zugreift – was auch ermöglicht, schnell zu sehen, wen Vectra für den wahrscheinlichen Besitzer eines Rechners hält. Mit diesem Dashboard sehen Sicherheitsverantwortliche nicht nur, welche Hosts ChatGPT verwenden, sondern wissen auch, wen sie diesbezüglich kontaktieren müssen, und sie haben diese Informationen innerhalb von Minuten, nicht Stunden.

Dies ist nur ein Beispiel dafür, wie die Vectra-Plattform tiefe Einblicke in die Aktivitäten im Unternehmen bietet und zeigt, wie sie durch die Verfolgung aktiver Compliance-Probleme bei der Einhaltung von Vorschriften helfen kann. Dies erfolgt ebenso zuverlässig, wie das Certificate Expiry Dashboard, das ablaufende Zertifikate überwacht, die im Unternehmen aktiv genutzt werden, oder das Azure AD Chaos Dashboard, das MFA-Umgehungen überwacht. Vectra kann Compliance-Verantwortlichen wertvolle Einblicke bieten, nicht nur was im Unternehmen falsch konfiguriert ist, sondern welche Sicherheitsrisiken aktiv bestehen.

Mehr bei Vectra.com

 


Über Vectra

Vectra ist ein führender Anbieter von Bedrohungserkennung und -abwehr für Hybrid- und Multi-Cloud-Unternehmen. Die Vectra-Plattform nutzt KI zur schnellen Erkennung von Bedrohungen in der Public Cloud, bei Identitäts- und SaaS-Anwendungen sowie in Rechenzentren. Nur Vectra optimiert die KI, um Angreifermethoden – die TTPs (Taktiken, Techniken und Prozesse), die allen Angriffen zugrunde liegen – zu erkennen, anstatt einfach nur bei „anders“ zu alarmieren.


 

Passende Artikel zum Thema

Cybersecurity-Plattform mit Schutz für 5G-Umgebungen

Cybersecurity-Spezialist Trend Micro stellt seinen plattformbasierten Ansatz zum Schutz der ständig wachsenden Angriffsfläche von Unternehmen vor, einschließlich der Absicherung von ➡ Weiterlesen

Datenmanipulation, die unterschätzte Gefahr

Jedes Jahr erinnert der World Backup Day am 31. März aufs Neue daran, wie wichtig eine aktuelle und leicht zugängliche ➡ Weiterlesen

Drucker als Sicherheitsrisiko

Die Flotte der Drucker von Unternehmen wird zunehmend zum blinden Fleck und birgt enorme Probleme für deren Effizienz und Sicherheit. ➡ Weiterlesen

Der AI Act und seine Folgen beim Datenschutz

Mit dem AI Act ist das erste Gesetz für KI abgesegnet und gibt Herstellern von KI-Anwendungen zwischen sechs Monaten und ➡ Weiterlesen

Windows Betriebssysteme: Fast zwei Millionen Rechner gefährdet

Für die Betriebssysteme Windows 7 und  8 gibt es keine Updates mehr. Das bedeutet offene Sicherheitslücken und damit lohnende und ➡ Weiterlesen

KI auf Enterprise Storage bekämpft Ransomware in Echtzeit

Als einer der ersten Anbieter integriert NetApp künstliche Intelligenz (KI) und maschinelles Lernen (ML) direkt in den Primärspeicher, um Ransomware ➡ Weiterlesen

DSPM-Produktsuite für Zero Trust Data Security

Data Security Posture Management – kurz DSPM – ist entscheidend für Unternehmen, um Cyber Resilience gegenüber der Vielzahl sich ständig ➡ Weiterlesen

Datenverschlüsselung: Mehr Sicherheit auf Cloud-Plattformen

Online-Plattformen sind häufig Ziel von Cyberangriffen, so wie kürzlich Trello. 5 Tipps sorgen für eine wirksamere Datenverschlüsselung in der Cloud ➡ Weiterlesen