Mittlerweile werden KI-Tools millionenfach eingesetzt, um Themen zu recherchieren, Briefe zu schreiben und Bilder zu erstellen. Doch auch im Bereich der Cybersicherheit gewinnt die künstliche Intelligenz immer mehr an Bedeutung.
Sie kann einerseits Sicherheitsverantwortlichen ihre Arbeit erleichtern, bietet aber andererseits Cyberkriminellen zahlreiche neue Möglichkeiten. Diese reichen von Deepfakes bis hin zu KI-gestützten Cyberangriffskampagnen on demand. Inwieweit sich künstliche Intelligenz dazu einsetzen lässt, Ergebnisse des „Wardriving“, also des systematischen Suchens nach WiFi-Netzwerken mit Hilfe eines Fahrzeugs, besser auszunutzen, hat Whitehat Hacker Kody Kinzie ausprobiert.
KI-Tool Claude
Der Sicherheitsspezialist sammelte auf einer Fähre der Circle Line mit WiGLE Informationen über WiFi-Netzwerke in Manhattan. Er erhielt so einen CSV-Datensatz von 5.000 Zeilen und lud diesen bei Claude hoch. „Ich wollte sehen, ob dieses KI-Modell drei Dinge kann: die Daten analysieren, die Daten anreichern und die Daten in einer visuellen Darstellung ausgeben“, so Kinzie. Dafür sollte Claude die MAC-Adressen all dieser drahtlosen Netzwerke mit einer Liste von Anbietern abgleichen und dann die häufigsten Anbieter in diesem Bereich identifizieren.
Das Tool gab an, dass es die Netzwerk-ID-Spalte extrahiert hat, das MAC Vendor Lookup-Paket in Python verwendet hat, um den Anbieter zu suchen, die Anzahl jedes Anbieters berechnet und dann die Anbieter sortiert hat, um deren Häufigkeit zu bestimmen. Die Ergebnisse entsprachen einer typischen Verteilung von Herstellern. „Claude hat scheinbar die Schritte durchgeführt, die ein versierter Mensch unternehmen würde, um die Daten anzureichern. Entsprechend bin ich davon ausgegangen, dass das Tool meine Informationen tatsächlich verarbeitet hat.“
Claude halluziniert
Um die Ergebnisse zu überprüfen, wiederholte Kinzie den Test mehrfach – mit immer wieder komplett anderen Ergebnissen. „Offensichtlich hat Claude nicht die selbst gestellten Aufgaben durchgeführt, sondern einfach nur die Ergebnisse antizipiert. Das Tool war in der Lage, den Python-Code zu schreiben, der für eine echte Analyse der Daten verwendet wurde. Aber nachdem die Wardriving-Daten tatsächlich durch diesen Code gelaufen waren, zeigte sich, dass der größte Teil der Daten nicht gestimmt hat, sondern eher eine Halluzinationen war. Andererseits hat Claude eine Karte erstellt, die die Lage mehrerer gefährdeter Netze zeigte und mit den Ergebnissen einer echten Analyse identisch war“, erklärt Kinzie.
Claude lag somit zwar nicht richtig, aber auch nicht komplett falsch: „Das ist in meinen Augen schlimmer, als komplett danebenzuliegen, denn die Ergebnisse erscheinen plausibel und enthalten ein paar richtige Schlussfolgerungen.“ Dieses Verhalten ist aber nicht auf Claude beschränkt: „KI-Systeme wie Claude, Bard von Google oder ChatGPT versuchen, sich plausiblen Ergebnissen anzunähern. Wenn man also Datenanalysen durchführt und Dinge tut, für die KI gut zu sein scheint, muss man sehr vorsichtig sein und diese Ergebnisse stets manuell überprüfen.“
Mehr bei Varonis.com
Über Varonis Varonis verfolgt seit seiner Gründung 2005 einen anderen Ansatz als die meisten IT-Sicherheits-Anbieter, indem es die sowohl lokal als auch in der Cloud gespeicherten Unternehmensdaten ins Zentrum der Sicherheitsstrategie stellt: sensible Dateien und E-Mails, vertrauliche Kunden-, Patienten- und Mitarbeiterdaten, Finanzdaten, Strategie- und Produktpläne sowie sonstiges geistiges Eigentum. Die Varonis Datensicherheits-Plattform (DSP) erkennt Insider-Bedrohungen und Cyberangriffe durch die Analyse von Daten, Kontoaktivitäten, Telemetrie und Nutzerverhalten, verhindert oder begrenzt Datensicherheitsverstöße, indem sie sensible, regulierte und veraltete Daten sperrt und bewahrt einen sicheren Zustand der Systeme durch effiziente Automatisierung.,
Passende Artikel zum Thema