Compliance mit KI im Unternehmen

Compliance mit KI im Unternehmen

Beitrag teilen

Die geradezu grenzenlosen Möglichkeiten von LLMs (Large Language Models) sind unglaublich aufregend. Jeden Monat gibt es neue Einsatzmöglichkeiten für diese Tools, die mit den Compliance-Richtlinien von Unternehmen nicht immer vereinbar sind.

Die Möglichkeiten reichenvon der schnellen und kostengünstigen Erstellung von Miniaturansichten für Blogposts über das Verhalten von Personen, die grundsätzlich gegen einen Blogpost sind und Kritik üben, bis hin zur kohärenten Übersetzung von Blogposts in andere Sprachen – und das bei vollem Verständnis des Inhalts. Selbst in der Welt jenseits von Blogposts birgt dieses im Entstehen begriffene Instrument ein enormes Potenzial. Potenzial bedeutet aber auch, dass niemand nicht weiß, was die Technologie am Ende tun wird, und das schafft ernsthafte, greifbare Geschäftsrisiken.

Anzeige

Risiken erkennen

Bei LLM denke viele Menschen zuerst an ChatGPT von OpenAI als das derzeit am einfachsten zugängliche und zu bedienende Tool. Mit ChatGPT kann jeder über einen Webbrowser Fragen stellen, und es generiert schnelle Antworten. Für den Durchschnittsnutzer ist das großartig, aber für jedes Unternehmen birgt diese Benutzerfreundlichkeit drei ernsthafte Probleme. Alle an ChatGPT gesendeten Daten werden von OpenAI zu Qualitäts- und Nachverfolgungszwecken gespeichert, die Quelle jeder Antwort ist unbekannt und die Antwort kann komplett erfunden sein.

OpenAI verfolgt die Eingaben der Nutzer, um sein Produkt zu verbessern und um einen eventuellen Missbrauch des Systems zu verhindern. Dies ist ein völlig vernünftiges Verhalten von OpenAI, aber es gibt keinen Grund zu glauben, dass OpenAI mit diesen Daten besonders sorgfältig umgeht. Darüber hinaus kann OpenAI nicht wirklich kontrollieren, welche Daten an ChatGPT übermittelt werden, so dass es Ende viele Informationen speichert, die eigentlich gar nicht gespeichert werden sollten. So kam zum Beispiel kürzlich ans Tageslicht, dass Samsung-Mitarbeiter ChatGPT zur Fehlersuche in firmeneigener Software und zur Zusammenfassung von Sitzungsprotokollen verwendet haben.

Unsichere Quellen

Das zweite Problem ist, dass ChatGPT Anfragen beantwortet, ohne Quellen für seine Antworten zu nennen. ChatGPT macht Aussagen, die auf seinen Erkenntnissen beruhen, und leider müssen Benutzer dies so hinnehmen, wie es ist. Diese Informationen könnten urheberrechtlich geschützt sein, und Benutzer würden es nicht wissen, bis sie ein Schreiben von Anwälten erhalten, die eine Verletzung des Urheberrechts behaupten. Getty Images hat den Ersteller eines Tools zur Erzeugung von LLM-Bildern wegen Urheberrechtsverletzung verklagt, nachdem festgestellt wurde, dass das Tool Bilder mit einem Wasserzeichen von Getty Images erzeugt hat. Es ist nicht unvernünftig zu argumentieren, dass alle Endnutzer, die diese Bilder verwenden, ebenfalls haftbar gemacht werden könnten. Die Codegenerierung ist ein weiterer Bereich, der Anlass zur Sorge gibt, auch wenn es bisher noch keine konkreten Beispiele gab, aber es scheint unvermeidlich.

Erfundene Antworten

Das größte Problem bei ChatGPT ist jedoch, dass diese LLMs „Halluzinationen“ haben können, was im Branchenjargon als „unverhohlene Lügen“ bezeichnet wird. Da ChatGPT keine Transparenz darüber hat, wie es zu den Antworten kommt, müssen die Nutzer in der Lage sein, die Antworten kritisch zu analysieren, um zu entscheiden, ob sie wahr sind, da ChatGPT und seinesgleichen immer mit absoluter Sicherheit antworten werden. Das kann Folgen haben, von Googles peinlichem Start bis hin zu einem Professor, der alle seine Studenten durchfallen ließ, nachdem ChatGPT fälschlicherweise behauptet hatte, studentische Arbeiten geschrieben zu haben – bis hin zum ungeheuerlichsten Beispiel, bei dem ein Anwalt ChatGPT benutzte, um seinen Schriftsatz vor Gericht zu verfassen, und ChatGPT sechs völlig falsche Quellen erfand, um das Argument zu stützen. Googles schlechtes Beispiel führte dazu, dass seine Marktbewertung um 100 Milliarden US-Dollar sank, der Universitätsprofessor seine Glaubwürdigkeit einbüßte und eine millionenschwere Klage vor Gericht möglicherweise abgewiesen wurde. Dies sind äußerst schwerwiegende Folgen, die eigentlich zu vermeiden wären.

Compliance sicherstellen

Unternehmen reagieren auf diese Tatsachen mit Richtlinien, die die Verwendung von OpenAI ohne Genehmigung verbieten. Es ist jedoch schwierig, die Einhaltung dieser Richtlinien zu verfolgen, da der Datenverkehr über einen verschlüsselten Browser läuft, ohne dass eine Software erforderlich ist.

Vectra AI ist in der Lage, diese Aktivitäten im Netzwerk zu erkennen, indem es Netzwerksensoren zur Erkennung nutzt. Vectra NDR wurde entwickelt, um den gesamten Netzwerkverkehr im Unternehmen zu überwachen, mit sorgfältig platzierten Sensoren, die den Verkehr in und aus dem Netzwerk überwachen, aber auch innerhalb des Netzwerks selbst. Diese Analysetiefe ist die Grundlage für das leistungsfähige KI-gesteuerte Erkennungs-Framework und ermöglicht zudem aufschlussreiche Einblicke in die Compliance, zusammengefasst im ChatGPT Usage Dashboard. Das Dashboard, das Vectra allen Plattformkunden kostenlos zur Verfügung steht, zeigt die Hosts in der Umgebung an, die aktiv mit OpenAI interagieren, indem es DNS-Anfragen an OpenAI-Server verfolgt, die von beliebigen Hosts gestellt werden. So können Compliance-Beauftragte nicht nur schnell eine Liste von Personen einsehen, die Konten bei OpenAI haben oder ein Interesse angemeldet haben, sondern auch aktiv überwachen, wer genau ein System nutzt und wie oft.

Zugriffe visualisieren

Das Dashboard nutzt die patentierte Vectra-Technologie zur Host-ID-Zuordnung, um diese Nutzer bis in die Tiefe zu verfolgen. Selbst wenn sich die IP-Adressen von Rechnern ändern oder ein Notebook einem neuen Netzwerk beitritt, verfolgt Vectra dies als denselben Rechner, so dass das Dashboard genau anzeigt, wie oft ein Gerät auf ChatGPT zugreift – was auch ermöglicht, schnell zu sehen, wen Vectra für den wahrscheinlichen Besitzer eines Rechners hält. Mit diesem Dashboard sehen Sicherheitsverantwortliche nicht nur, welche Hosts ChatGPT verwenden, sondern wissen auch, wen sie diesbezüglich kontaktieren müssen, und sie haben diese Informationen innerhalb von Minuten, nicht Stunden.

Dies ist nur ein Beispiel dafür, wie die Vectra-Plattform tiefe Einblicke in die Aktivitäten im Unternehmen bietet und zeigt, wie sie durch die Verfolgung aktiver Compliance-Probleme bei der Einhaltung von Vorschriften helfen kann. Dies erfolgt ebenso zuverlässig, wie das Certificate Expiry Dashboard, das ablaufende Zertifikate überwacht, die im Unternehmen aktiv genutzt werden, oder das Azure AD Chaos Dashboard, das MFA-Umgehungen überwacht. Vectra kann Compliance-Verantwortlichen wertvolle Einblicke bieten, nicht nur was im Unternehmen falsch konfiguriert ist, sondern welche Sicherheitsrisiken aktiv bestehen.

Mehr bei Vectra.com

 


Über Vectra

Vectra ist ein führender Anbieter von Bedrohungserkennung und -abwehr für Hybrid- und Multi-Cloud-Unternehmen. Die Vectra-Plattform nutzt KI zur schnellen Erkennung von Bedrohungen in der Public Cloud, bei Identitäts- und SaaS-Anwendungen sowie in Rechenzentren. Nur Vectra optimiert die KI, um Angreifermethoden – die TTPs (Taktiken, Techniken und Prozesse), die allen Angriffen zugrunde liegen – zu erkennen, anstatt einfach nur bei „anders“ zu alarmieren.


 

Passende Artikel zum Thema

Report: Vertrauenswürdige Windows Anwendungen missbraucht

In seinem neuen Active Adversary Report 2024 belegt Sophos den Wolf im Schafspelz: Cyberkriminelle setzten vermehrt auf vertrauenswürdige Windows-Anwendungen für ➡ Weiterlesen

XDR: Schutz von Daten in Atlassian-Cloud-Applikationen

Mit einer neuen XDR-Erweiterung kann Bitdefender nun auch Daten in Atlassian-Cloud-Applikationen schützen. Somit ist das Überwachen, Erkennen und eine Reaktion auf ➡ Weiterlesen

Ausblick 2025: Lösungen für veränderte Angriffsflächen durch KI, IoT & Co

Die Angriffsfläche von Unternehmen wird sich im Jahr 2025 unweigerlich weiter vergrößern. Die datengetriebene Beschleunigung, einschließlich der zunehmenden Integration von ➡ Weiterlesen

Cloud Rewind für Wiederaufbau nach einer Cyberattacke

Eine neue Lösung für Cyber Recovery und zum Rebuild cloudzentrierter IT-Infrastrukturen. Commvault Cloud Rewind mit neuen Funktionen zum Auffinden von ➡ Weiterlesen

Medusa-Ransomware-Gruppe betreibt offenen Opfer-Blog im Web

Auch Cyberkriminelle pflegen neben der direkten Kommunikation mit dem Opfer ihre Außendarstellung. Denn Reputation ist ein wichtiger Erfolgsfaktor für Ransomware-as-a-Service-Unternehmen. Der ➡ Weiterlesen

Lokale Backups: Rückkehr zum sicheren Hafen

Warum Unternehmen lokale Backup-Strategien wiederentdecken: In den letzten Jahren haben sich Unternehmen zunehmend in die Abhängigkeit von Cloud-Lösungen manövriert - ➡ Weiterlesen

Gefährliche Lücken: Studie zu ICS und OT Cybersecurity

Das SANS Institute hat die Ergebnisse seiner Studie 2024 State of ICS/OT Cybersecurity veröffentlicht. Sie zeigt erhebliche Fortschritte bei der ➡ Weiterlesen

Gemeinsamkeiten und Unterschiede von PIM und PAM

Nicht selten werden die Aufgaben und Ziele der beiden Prinzipien PIM und PAM für die sichere Identifikationen und deren Verwaltung ➡ Weiterlesen