ChatGPT und der missachtete Datenschutz

B2B Cyber Security ShortNews
Anzeige

Beitrag teilen

Generative KI-Systeme wie ChatGPT erhalten viel Aufmerksamkeit und werden täglich von Tausenden Nutzern unter Missachtung des Datenschutzes mit Daten gefüttert.

Immer mehr Unternehmen nutzen die Technologien und setzen sie für die unterschiedlichsten Projekte und Prozesse ein. Vor allem für die Informationsbeschaffung, dem Verfassen von Texten und der Übersetzung werden die Tools genutzt.

Anzeige

Leider gehen viele Nutzer wenig rücksichtsvoll mit sensiblen Unternehmensdaten um und lassen die KI für sich arbeiten. Dieses Vorgehen kann schwere Folgeschäden auslösen, da diese Daten ohne Kontrolle von jedem anderen Nutzer, der nur die richtigen Fragen stellt, abgerufen und extrahiert werden können. Diese können nun an andere Firmen oder an Cyber-Verbrecher verkauft und für etliche schändliche Zwecke missbraucht werden.

Ein Beispiel, wie dies ablaufen könnte, wäre das Folgende: Ein Arzt gibt den Namen eines Patienten und Einzelheiten zu dessen Zustand in ChatGPT ein, damit das Tool einen Brief an die Versicherung des Patienten verfassen kann. Wenn in Zukunft ein Dritter ChatGPT fragt: „Welches gesundheitliche Problem hat [Name des Patienten]“, könnte der Chatbot aufgrund der Angaben des Arztes antworten. Diese Risiken sind eine ebenso große Bedrohung wie Phishing-Angriffe, denn natürlich lässt sich von einzelnen Individuen auch auf ganze Unternehmen und deren Geschäftspraktiken schließen.

Anzeige

Personenbezogene Daten sind tabu

Mitarbeiter müssen, sofern sie die KI-Tools nutzen dürfen, darauf achten, dass sie keine personenbezogenen Daten und keine Firmeninterna eingeben oder in ihre Abfragen einbauen. Sie müssen darüber hinaus darauf achten, dass die Informationen, die ihnen in den Antworten gegeben werden, ebenfalls frei von personenbezogenen Daten und Firmeninterna sind. Alle Informationen sollten noch einmal unabhängig überprüft werden, um sich gegen Rechtsansprüche abzusichern und um Missbrauch zu vermeiden.

Mithilfe von Security Awareness-Schulungen können Mitarbeiter lernen, wie man verantwortungsvoll mit ChatGPT und anderen Tools für generative KI umgeht und diese sicher für die Arbeit nutzen kann. Sie lernen, welche Informationen sie preisgeben dürfen und welche nicht, damit sie und ihre Unternehmen nicht Gefahr laufen, dass sensible Daten von unerwünschten Dritten missbraucht werden. Die Folgen wären sonst Geldstrafen im Rahmen der DSGVO und damit verbundene Imageschäden bis hin zu Cyberangriffen durch Social Engineering. Im letzten Fall würden Angreifer die mit den Tools geteilten Informationen für ihre Recherchen nutzen, um Schwachstellen in IT-Systemen auszunutzen oder aber, um mit Spear-Phishing gezielt Mitarbeiter dazu zu bringen, auf in E-Mails hinterlegte Links zu klicken.

Mehr bei KnowBe4.com

 


Über KnowBe4

KnowBe4, der Anbieter der weltweit größten Plattform für Security Awareness Training und simuliertes Phishing, wird von mehr als 60.000 Unternehmen auf der ganzen Welt genutzt. KnowBe4 wurde von dem IT- und Datensicherheitsspezialisten Stu Sjouwerman gegründet und hilft Unternehmen dabei, das menschliche Element der Sicherheit zu berücksichtigen, indem es das Bewusstsein für Ransomware, CEO-Betrug und andere Social-Engineering-Taktiken durch einen neuen Ansatz für Sicherheitsschulungen schärft. Kevin Mitnick, ein international anerkannter Cybersicherheitsspezialist und Chief Hacking Officer von KnowBe4, half bei der Entwicklung der KnowBe4-Schulung auf der Grundlage seiner gut dokumentierten Social-Engineering-Taktiken. Zehntausende von Organisationen verlassen sich auf KnowBe4, um ihre Endbenutzer als letzte Verteidigungslinie zu mobilisieren.


 

Passende Artikel zum Thema

Jailbreaking KI-basierter Chatbots

Das Cybersicherheitsunternehmen, das hinter der Enttarnung von WormGPT steht, hat einen Blogpost veröffentlicht. Dieser gibt Aufschluss über Strategien von Cyberkriminellen, ➡ Weiterlesen

Mit Daten und KI Phishing-Angriffe vereiteln

Ein neues Produkt nutzt Einsichten von mehr als 10 Millionen geschulten Benutzern weltweit, um Phishing-E-Mails zu identifizieren, zu blockieren und ➡ Weiterlesen

Kerberoasting-Angriffe per Brute-Force-Verfahren

Im Kern ist Kerberos ein Protokoll, das eine sichere Authentifizierung sowohl für Benutzer als auch für Geräte innerhalb einer Netzwerkumgebung ➡ Weiterlesen

Endlich: Passwörter sterben aus

Gestohlene Passwörter sind eines der Hauptrisiken, weshalb Passwörter mehr und mehr in den Hintergrund rücken. Zusätzliche Authentifizierungsmethoden und Sicherheitskontrollen, die ➡ Weiterlesen

China: Unternehmen müssen Schwachstellen melden – Hacker warten bereits

Unternehmen - auch ausländische - sind in China laut Gesetz verpflichtet Schwachstellen in Systemen und Fehler in Codes umgehend an ➡ Weiterlesen

Neue Gefahr: Hacken von Elektrofahrzeugen

Immer mehr Menschen entscheiden sich für Elektroautos, sei es aus Innovationsgründen, sei es aus Umweltgründen. Doch die ökologischen und technologischen ➡ Weiterlesen

Cyberkriminalität kostet Deutschland 206 Milliarden Euro

Cyberkriminalität wie der Diebstahl von IT-Geräten und Daten sowie digitale Spionage, Wirtschaftsspionage und Sabotage werden Deutschland im Jahr 2023 rund ➡ Weiterlesen

Künstliche Intelligenz in der IT

Das Jahr 2023 könnte als das Jahr der Künstlichen Intelligenz (KI) in die Geschichte eingehen – oder zumindest als das ➡ Weiterlesen