
Mit dem Fortschritt künstlicher Intelligenz entwickeln sich auch die Methoden von Cyberkriminellen weiter. Der jüngste Anstieg KI-gestützter Betrugsmaschen rund um DeepSeek zeigt, wie generative KI gezielt für Social Engineering eingesetzt wird.
Angreifer nutzen diese Technologie, um täuschend echte Phishing-Angriffe zu starten, Desinformationen zu verbreiten und Nutzer zur Preisgabe sensibler Informationen zu manipulieren. Während Unternehmen verstärkt auf KI-gestützte Lösungen setzen, müssen sie sich auch der Risiken bewusst sein und ihre Sicherheitsstrategien entsprechend anpassen.
Kriminelle Nutzung von DeepSeek
DeepSeek, ein Open-Source-KI-Modell zur Verarbeitung natürlicher Sprache und Generierung von Inhalten, erweist sich als zweischneidiges Schwert. Während es für legale Zwecke innovative Anwendungsmöglichkeiten bietet, nutzen Bedrohungsakteure seine Funktionen, um ihre Täuschungstechniken zu perfektionieren. Besonders gefährlich ist der Einsatz generativer KI für die Erstellung täuschend echter Texte, Chats und sogar Deepfake-Audioinhalte.
- Hyperrealistische Phishing-E-Mails: Moderne Phishing-Angriffe zeichnen sich zunehmend durch fehlerfreie, kontextbezogene und personalisierte Nachrichten aus, die offizielle Mitteilungen von Unternehmen, Banken oder Behörden nahezu perfekt imitieren. Im Gegensatz zu früheren, oft leicht erkennbaren Betrugsversuchen lassen sich diese durch den Einsatz von KI wie DeepSeek nur schwer von echten E-Mails unterscheiden. Zudem können sie mit Echtzeitdaten, etwa zu aktuellen Ereignissen oder internen Unternehmensupdates, angereichert werden, um noch glaubwürdiger zu wirken.
- Betrugsversuche und Deepfake-Social-Engineering: KI-gesteuerte Chatbots werden immer häufiger von Kriminellen genutzt, um sich als Support-Mitarbeiter oder Kollegen auszugeben und so Anmeldeinformationen oder Zugriffsrechte zu erschleichen. Besonders perfide sind Deepfake-Stimmen, die in Business-Email-Compromise-(BEC)-Angriffen eingesetzt werden, um Führungskräfte zu imitieren und unternehmensinterne Prozesse gezielt zu manipulieren.
- Automatisierte Fehlinformationen und soziale Manipulation: Generative KI wie DeepSeek ermöglicht nicht nur gezielte Täuschungsversuche gegenüber Einzelpersonen, sondern auch die Verbreitung großflächiger Desinformationskampagnen. Angreifer setzen KI ein, um manipulative Inhalte in sozialen Netzwerken, Foren und Unternehmensumfeldern zu platzieren – sei es zur Rufschädigung, zur Beeinflussung von Aktienkursen oder zur Verunsicherung ganzer Märkte.
- Erzeugung von Schadcode und KI-gestützte Malware: KI-Modelle wie DeepSeek erleichtern zudem die Erstellung von Schadsoftware und Hacking-Tools. Cyberkriminelle können mit wenigen Befehlen Code generieren, der sich gezielt an Schwachstellen anpasst und bestehende Sicherheitsmechanismen umgeht. Diese Automatisierung senkt die Einstiegshürden für Angreifer und ermöglicht hochskalierte Attacken mit minimalem Aufwand.
Über KnowBe4 KnowBe4, der Anbieter der weltweit größten Plattform für Security Awareness Training und simuliertes Phishing, wird von mehr als 60.000 Unternehmen auf der ganzen Welt genutzt. KnowBe4 wurde von dem IT- und Datensicherheitsspezialisten Stu Sjouwerman gegründet und hilft Unternehmen dabei, das menschliche Element der Sicherheit zu berücksichtigen, indem es das Bewusstsein für Ransomware, CEO-Betrug und andere Social-Engineering-Taktiken durch einen neuen Ansatz für Sicherheitsschulungen schärft. Kevin Mitnick, ein international anerkannter Cybersicherheitsspezialist und Chief Hacking Officer von KnowBe4, half bei der Entwicklung der KnowBe4-Schulung auf der Grundlage seiner gut dokumentierten Social-Engineering-Taktiken. Zehntausende von Organisationen verlassen sich auf KnowBe4, um ihre Endbenutzer als letzte Verteidigungslinie zu mobilisieren.