Viele Deutsche verwenden im beruflichen Alltag ChatGPT. Das kann die Sicherheit von sensiblen Daten gefährden.
Laut einer repräsentativen Umfrage nutzt fast die Hälfte (46 Prozent) der Berufstätigen in Deutschland ChatGPT im Arbeitsalltag. Die Beliebtheit generativer KI-Dienste und Large Language Models (LLM) stellt Unternehmen vor die Frage, inwiefern sie Sprachmodellen sensible Unternehmensdaten anvertrauen können.
Die Kaspersky-Experten haben diese Datenschutzrisiken der beruflichen ChatGPT-Nutzung identifiziert:
- Datenleck oder Hack seitens des Providers: Obwohl LLM-basierte Chatbots von großen Tech-Konzernen betrieben werden, sind sie nicht immun gegenüber Hackingangriffen oder unabsichtlichen Datenlecks. So gab es bereits einen Zwischenfall, bei dem ChatGPT-Nutzer Eingaben aus dem Nachrichtenverlauf anderer Nutzer sehen konnten.
- Datenleck durch Chatbots: Theoretisch können die Chats verwendet werden, um neue Chatbot-Modelle zu trainieren. Nutzer sollten bedenken, dass LLMs anfällig gegenüber „unabsichtlicher Speicherung“ sind; das heißt: sie können sich einzigartige Sequenzen wie Handynummern merken, die nicht die Modellqualität verbessern, aber die Privatsphäre gefährden. Alle Daten, die Nutzer in den Trainingskorpus eingegeben, können bewusst oder unabsichtlich von Anwendern desselben Sprachmodells aufgerufen werden.
- Hacking von Accounts: Angreifer können durch Phishing-Angriffe oder Credential Stuffing in Angestellten-Accounts eindringen und auf fremde Daten zugreifen. Außerdem findet die Kaspersky Digital Footprint Intelligence [3] regelmäßig Darknet-Beiträge, die Chatbot‑Accounts zum Verkauf anbieten.
Die Nutzungsbedingungen der Erfassung, Speicherung, und Verarbeitung von Daten bei KI-Tools sind im B2B-Bereich stärker auf Schutz ausgelegt als im B2C-Sektor. Die B2B-Lösungen speichern normalerweise keine Chatverläufe und in manchen Fällen werden auch keine Daten an den Unternehmensserver gesendet, da der Chatbot lokal im Kundennetzwerk operiert.
Schutz von vertraulichen Daten
„Das Risiko für den Verlust sensibler Daten ist am höchsten, wenn Angestellte persönliche Accounts am Arbeitsplatz verwenden. Unternehmen sollten daher ihr Hauptaugenmerk darauflegen, Mitarbeiter für die Risiken der Chatbot-Nutzung zu sensibilisieren. Einerseits müssen diese verstehen, welche Daten vertraulich oder persönlich sind, oder ein Geschäftsgeheimnis darstellen und nicht an Chatbots weitergeleitet werden dürfen. Andererseits sollten Unternehmen klare Regeln für die Verwendung dieser Dienste – wenn sie überhaupt zugelassen werden – aufstellen,“ kommentiert Anna Larkina, Sicherheits- und Datenschutzexpertin bei Kaspersky.
Mehr bei Kaspersky.de
Über Kaspersky Kaspersky ist ein internationales Cybersicherheitsunternehmen, das im Jahr 1997 gegründet wurde. Die tiefgreifende Threat Intelligence sowie Sicherheitsexpertise von Kaspersky dient als Grundlage für innovative Sicherheitslösungen und -dienste, um Unternehmen, kritische Infrastrukturen, Regierungen und Privatanwender weltweit zu schützen. Das umfassende Sicherheitsportfolio des Unternehmens beinhaltet führenden Endpoint-Schutz sowie eine Reihe spezialisierter Sicherheitslösungen und -Services zur Verteidigung gegen komplexe und sich weiter entwickelnde Cyberbedrohungen. Über 400 Millionen Nutzer und 250.000 Unternehmenskunden werden von den Technologien von Kaspersky geschützt. Weitere Informationen zu Kaspersky unter www.kaspersky.com/
Passende Artikel zum Thema