Verfälschte Ergebnisse durch KI-Poisining

Verfälschte Ergebnisse durch KI-Poisining

Beitrag teilen

Seit der Veröffentlichung von ChatGPT stellt sich Cybersicherheitsexperten die Frage, wie sie die Verfälschung der GenKI durch Poisining kontrollieren sollen. Sie gehen zunächst von einem Bedrohungsszenario aus, nämlich dass durch das Data Posining der Output der GenKI bereits verfälscht wird.

Bereits als erste Chatbots mit Machine Learning trainiert wurden und dann vorgefertigte Antworten liefern sollten, gab es Manipulationen. Ein Beispiel ist Twitter, jetzt X. Schon 2016 fanden es Mitglieder des Kurznachrichtendienstes lustig, den damaligen Chatbot Tay mit rassistischen Inhalten zu füttern. Das Projekt wurde daraufhin innerhalb eines Tages beendet. Ähnlich ergeht es im Grunde genommen allen öffentlich zugänglichen GenKI-Modellen. Sie werden von trollenden Nutzern auf kurz oder lang mit Desinformationen gefüttert oder aufgefordert danach zu suchen. Der Nutzer selbst ist ein Problem, doch es droht noch ein weit Schlimmeres.

Anzeige

Split-View- und Frontrunning Poisining

Lange Zeit stellte dieses Szenario nämlich die einzige Gefährdung dar. Doch seit letztem Jahr hat sich das geändert. Forscher der ETH Zürich haben in Zusammenarbeit mit Tech Firmen wie Google und NVIDIA in einer Studie nachgewiesen, wie sich KI-Poisining umsetzen lässt. Die Forscher stellten zwei Angriffsarten zum Vergiften von Datensätzen vor. Die Studie zeigt, dass sich mit diesen Attacken 10 beliebte Datensätze wie LAION, FaceScrub und COYO vergiften lassen. Beim ersten Angriff, dem Split-View-Poisoning, wird die Veränderlichkeit von Internetinhalten ausgenutzt, um sicherzustellen, dass die anfängliche Ansicht des Datensatzes durch einen Kommentator von der Ansicht abweicht, die von nachfolgenden Clients heruntergeladen wird. Unter Ausnutzung bestimmter ungültiger Vertrauensannahmen zeigten die Forscher, wie sie 0,01 Prozent der LAION-400M- oder COYO-700M-Datensätze mit einem Aufwandsbudget von nur 60 US-Dollar vergiften konnten. Der zweite Angriff, das Frontrunning Poisoning, zielt auf Datensätze im Internet ab, die in regelmäßigen Abständen Snapshots von crowd-gesourcten Inhalten erstellen. Hier entschieden sich die Forscher für Wikipedia. Die Studie belegt, dass ein Angreifer nur ein zeitlich begrenztes Fenster benötigt, um bösartige Daten einzuschleusen.

Diese Art von Angriffen entwickelt sich zu einer ernsthaften Bedrohung und wird Auswirkungen auf die Software-Lieferkette haben. Durch gezielte Angriffe auf ein- und ausgehende Datenpipelines können Angreifer Daten manipulieren, um KI-Modelle und die von ihnen erzeugten Ergebnisse zu verfälschen und sogar vergiften. Auch kleine Änderungen am Code eines KI-Modells während des Trainings können gravierende Auswirkungen haben. Jede böswillige Änderung an einem KI-Modell – egal wie unbedeutend sie zu sein scheint – wird verstärkt, sobald das Modell in Produktion ist und eigenständig handelt.

Kill Switch für KI

Angesichts der Tatsache, dass KI in immer größerem Umfang in geschäftskritischen Anwendungen und Services eingesetzt wird, ist der Schutz der Integrität dieser Systeme von entscheidender Bedeutung. In Branchen wie der verarbeitenden Industrie und der chemischen Industrie sind Kill Switches in Soft- und Hardware bereits weit verbreitet. Sie bieten eine sichere Möglichkeit, um zu verhindern, dass eine gefährliche Situation außer Kontrolle gerät und irreparable Schäden anrichtet. Deshalb stellt sich die Frage, wie ein Kill Switch für KI wie GenKI aussehen sollte. Falls eine weitverbreitete GenKI verfälscht wird, müssen IT-Experten und vor allem IT-Sicherheitsfachkräfte sie kontrollieren und mögliche Schäden beheben können. Die IT sieht solche Auswirkungen bereits bei zahlreichen Angriffen auf Cloud Provider oder aber Drittsoftware wie bei Solarwinds oder sogar bei Sicherheitssoftware wie Firewalls von Fortinet.

Schutz vor Poisining

Eine Lösung für das zu Beginn geschilderte Problem kann nur ein Kill-Switch für KI-Modelle sein. Denn anstatt eines einzelnen Kill Switch pro KI-Modell könnte es Tausende von Maschinenidentitäten geben, die an ein Modell gebunden sind und es in jeder Phase schützen – sowohl beim Training als auch in der Produktion. IT-Sicherheitsexperten behalten die Kontrolle, wenn die KI von Identitäten abhängig gemacht wird. Falls die KI abtrünnig wird, werden die betroffenen Identitäten widerrufen. Das bedeutet, dass sie nicht mehr mit anderen Maschinen interagieren kann. Sie wird dann vom Rest des Systems isoliert. Wenn ein KI-System von Hackern kompromittiert wird, kann die Aktivierung dieses Kill Switch verhindern, dass es mit bestimmten Diensten kommuniziert oder es ganz abschalten, um weiteren Schaden zu verhindern und die Bedrohung einzudämmen.

Mehr bei Venafi.com

 


Über Venafi

Venafi ist der Marktführer im Bereich Cybersicherheit für das Identitätsmanagement von Maschinen. Vom Fundament bis zur Cloud verwalten und schützen Venafi-Lösungen Identitäten für alle Arten von Maschinen - von physischen und IoT-Geräten bis hin zu Softwareanwendungen, APIs und Containern. Venafi bietet globale Transparenz, Lebenszyklus-Automatisierung und umsetzbare Intelligenz für alle Arten von Maschinenidentitäten und die damit verbundenen Sicherheits- und Zuverlässigkeitsrisiken.


 

Passende Artikel zum Thema

KI-Cloud-Services erhöhen Resilienz von Rechenzentren

Ein Anbieter von KI-nativen, sicheren Netzwerken hat seine Sicherheitslösung für Rechenzentren um neue Funktionen erweitert. Sie verbessern die Netzwerktransparenz, -analyse ➡ Weiterlesen

Backup: Umfassendste Ausfallsicherheit für Microsoft 365

Ein Marktführer für Datenresilienz stellt seine neue Backup-Version für Microsoft 365 vor. Die neue Lösung bietet umfassende Unveränderlichkeit und unternehmensspezifische ➡ Weiterlesen

Digitale Resilienz stärken: Angriffe mit NDR frühzeitig erkennen

Ein führender Anbieter für Cybersicherheit hat seine Network Detection and Response Plattform (NDR) aktualisiert. Die neuen Verhaltensanalysen ermöglichen eine frühere ➡ Weiterlesen

Cybervorfälle kosten bis zu 186 Milliarden US-Dollar im Jahr

Die Analyse von mehr als 161.000 einzelnen Cybervorfällen deckt die steigenden globalen Kosten anfälliger oder unsicherer APIs und des automatisierten ➡ Weiterlesen

Virtualisierte Firewall für VS-NfD

Ein deutscher IT-Security-Spezialist setzt Maßstäbe: Seine virtualisierte Firewall genugate Virtual hat eine Zulassung zur Verarbeitung von „Verschlusssachen - Nur für ➡ Weiterlesen

KI-gesteuerte Plattform schützt vor einer Vielzahl von Bedrohungen

Ein führendes Unternehmen für Cybersecurity hat die Funktionen seiner Plattform verbessert. Sie bietet unter anderem Schutz vor Bedrohungen in Social-Media-, ➡ Weiterlesen

Viele Unternehmen nutzen KI zur Generierung von Code

Ein Anbieter von maschinellem Identitätsmanagement veröffentlicht den neuen Forschungsbericht „Organizations Struggle to Secure AI-Generated and Open Source Code“. Der Bericht ➡ Weiterlesen

Malware: Gruppe RansomHub an erster Stelle

In der Auswertung für August 2024 führte die Android Spyware Joker die Liste der Mobile Malware an. Die Malware CloudEye ➡ Weiterlesen