Missbrauch von GenAI: Deepfake-Tools im Darknet-Angebot

Missbrauch von GenAI: Deepfake-Tools im Darknet-Angebot Bild: Bing - KI

Beitrag teilen

Cyberkriminelle weiten ihr Angebot von Large Language Models (LLMs) und Deepfake-Technologien aus, produzieren mehr und vergrößern ihre Reichweite. Kriminelle Telegram-Marktplätze werben für neue ChatGPT-ähnliche Chatbots, die versprechen, ungefilterte Antworten auf alle Arten von bösartigen Fragen zu geben.

Kommerzielle LLMs wie Gemini oder ChatGPT sind zum einen so programmiert, dass sie die Beantwortung von böswilligen oder unethischen Anfragen verweigern. Zum anderen vermeiden Kriminelle bekannte Dienste wie ChatGPT, da sie durch regulierte Tools befürchten, aufgespürt zu werden. Mit Jailbreak-as-a-Service-Frontends können Nutzer böswillige Fragen in spezielle Eingabeaufforderungen verpacken, was den ethischen Codex der KI-Tools umgeht. Denn sie sind darauf ausgelegt, ein kommerzielles LLM dazu zu bringen, eine ungefilterte Antwort zu geben.

Anzeige

Alte kriminelle LLMs neu aufgelegt

Zudem verfügen kriminelle LLM-Angebote über uneingeschränkte Fähigkeiten. Diese Chatbots garantieren Vertraulichkeit und Anonymität und werden speziell mit bösartigen Daten trainiert – vom Quellcode über Methoden und Techniken bis hin zu kriminellen Strategien. Auch alte LLMs, die eigentlich eingestellt wurden, tauchen wieder auf:

  • WormGPT wurde im August 2023 öffentlich eingestellt. Trotzdem verkaufen Cyberkriminelle derzeit drei Varianten. Dabei sind die Unterschiede zwischen diesen unklar, wie auch die Gewissheit, ob es sich um neue Versionen des alten Projekts handelt oder um eine völlig neue, die den Namen nur aus Gründen der Bekanntheit beibehielt.
  • DarkBERT ist ein Chatbot, der Teil eines umfangreichen Angebots eines Bedrohungsakteurs mit dem Benutzernamen CanadianKingpin12 ist. Er galt als Scam, da der Chatbot zusammen mit vier anderen kriminellen LLMs mit sehr ähnlichen Fähigkeiten verkauft wurde. Alle vier Dienste wurden einmalig in einem einzigen Posting für eine Woche beworben. Dies sollte jedoch nicht verwechselt werden mit dem legalen Projekt DarkBERT. Dabei handelt es sich um ein LLM, das von einem Cybersicherheitsunternehmen auf Dark-Web-Posts trainiert wurde. Denn während andere, ähnlich aufgebaute Sprachmodelle mit der Vielfalt der Sprache des Dark Web zu kämpfen haben, wurde DarkBERT speziell dafür trainiert, eben diese illegalen Inhalte des Dark Web zu verstehen. Damit unterstützt das LLM die Überwachung oder Interpretation von Dark Web-Inhalten.

Interessant ist, dass die aktuellen Versionen von DarkBERT und WormGPT beide als App mit einer Option für ein „Siri Kit“ angeboten werden. So wird angedeutet, es handle sich um eine sprachgesteuerte Variante, die für die Interaktion mit KI-Bots entwickelt wurde. Sollte sich dies tatsächlich bestätigen, überträfen Kriminelle erstmalig Unternehmen an Innovation. Denn die Fähigkeiten dieser Varianten deckten sich dann mit den Ankündigungen für ein iPhone-Update auf der Apple Worldwide Developers Conference (WWDC) 2024.

Weitere kriminelle LLMs wie DarkGemini und TorGPT verwenden Namen, die mit bestehenden Technologien in Verbindung gebracht werden. Ihre Funktionalität unterscheidet sich jedoch nicht allzu sehr vom Rest der kriminellen Angebote, mit Ausnahme ihrer Fähigkeit Bilder zu verarbeiten. TorGPT zum Beispiel wirbt, neben dem regulären LLM-Dienst, auch mit einem Service zur Bildgenerierung.

Nicht nur Promis als Ziel von Deepfakes

Die Suche nach einer effizienteren Automatisierung zur Erstellung glaubwürdiger Deepfakes und Videos weitet sich rapide aus. Solche Technologien sind zwar nicht neu, aber nun für jeden Kriminellen, auch ohne fundierte technische Kenntnisse, immer leichter zugänglich.

Deepfake 3D Pro und seine Avatar-Generierungsfunktion kann dazu verwendet werden, Verifikationssysteme von Finanzinstituten zu umgehen und Kriminellen mit gestohlenen Ausweisen Zugang zu Konten zu verschaffen. In Kombination mit einem Dienst, der Stimmen klont, kann die App verwendet werden, um mit Skripts versehene Video-Phishing-Kampagnen zu erstellen

SwapFace und Avatar AI VideoCallSpoofer bieten beide die Möglichkeit, Echtzeit-Videoanrufe zu fälschen. So wurde im Februar 2024 ein Finanzangestellter aufgrund einer simulierten Onlinekonferenz, die durch KI-Deepfake-Technologie glaubhaft gemacht wurde, dazu gebracht, 25 Millionen Dollar an die Betrüger zu schicken.

Fazit zu Deepfakes

Auch wenn Chatbots und LLMs dazu beitragen, Scams zu verfeinern, so scheinen Video-Deepfakes für neue und kreative Social-Engineering-Tricks verheerende Auswirkungen zu haben. Diese Technologien verbessern nicht nur alte Tricks, sondern ermöglichen neue, originelle Betrügereien, die in den kommenden Monaten zweifellos von mehr Cyberkriminellen genutzt werden.

Da Cyberkriminelle generative KI dazu missbrauchen, eine falsche Realität vorzutäuschen und so Vertrauen zu gewinnen, sollten Nutzer Informationen gründlich auswerten und verifizieren, insbesondere in einer Online-Umgebung. Anwender können sich mithilfe spezieller Tools vor Betrügern schützen, indem diese gezielt nach Anzeichen für Deepfakes suchen.

Mehr bei TrendMicro.com

 


Über Trend Micro

Als einer der weltweit führenden Anbieter von IT-Sicherheit hilft Trend Micro dabei, eine sichere Welt für den digitalen Datenaustausch zu schaffen. Mit über 30 Jahren Sicherheitsexpertise, globaler Bedrohungsforschung und beständigen Innovationen bietet Trend Micro Schutz für Unternehmen, Behörden und Privatanwender. Dank unserer XGen™ Sicherheitsstrategie profitieren unsere Lösungen von einer generationsübergreifenden Kombination von Abwehrtechniken, die für führende Umgebungen optimiert ist. Vernetzte Bedrohungsinformationen ermöglichen dabei besseren und schnelleren Schutz. Unsere vernetzten Lösungen sind für Cloud-Workloads, Endpunkte, E-Mail, das IIoT und Netzwerke optimiert und bieten zentrale Sichtbarkeit über das gesamte Unternehmen, um Bedrohung schneller erkennen und darauf reagieren zu können..


 

Passende Artikel zum Thema

Vorhersagen zu Cybersicherheitsbedrohungen aus dem Darknet

Von hochentwickelten Desinformationsdiensten bis hin zu gestohlenen digitalen Identitäten, Schwachstellen im Smarthome-Bereich sowie KI-gesteuertes Social Engineering – das sind die ➡ Weiterlesen

Weltgrößter white-hacking Wettbewerb im Automobilbereich

Im Tokyo Big Sight Veranstaltungszentrum findet vom 22. bis 24. Januar 2025 der weltweit größte white-hacking Wettbewerb „Pwn2Own Automotive 2025“ ➡ Weiterlesen

Große Sprachmodelle (LLMs) und die Data Security

Angesichts der rasanten KI-Entwicklung mit LLMs wird immer deutlicher, dass die grundlegenden Leitplanken, Plausibilitätsprüfungen und Prompt-basierten Sicherheitsmaßnahmen, die derzeit gelten, ➡ Weiterlesen

Verschlüsselte Angriffe nehmen zu

Ein Anbieter von Cloud-Sicherheit veröffentlicht mit dem ThreatLabz 2024 Encrypted Attacks Report eine Analyse der neuesten Bedrohungen. Verschlüsselter Datenverkehr entwickelte ➡ Weiterlesen

Bedrohungen bewerten und aktiv abwehren

Mit dem Risk Management Dashboard von Keeper Security haben Administratoren die Sicherheit des Unternehmens im Blick. Dynamische Benchmarks unterstützen sie ➡ Weiterlesen

Hacker sehen KI als neuen Angriffsvektor

Eine neue Umfrage unter Hackern zeigt, dass KI nicht nur Hackern hilft, effizienter zu werden, sondern dass KI selbst „reif ➡ Weiterlesen

KI-Einsatz: Schutz und Gefahr für die Datensicherheit 2025

In diesem Jahr sollten Unternehmen der Datensicherheit in der Cloud angesichts des zunehmenden KI-Einsatzes höchste Priorität einzuräumen. Die Entwicklung und ➡ Weiterlesen

Phishing-resistente Authentifizierung für Microsoft

Ein führender Anbieter von Sicherheitsschlüsseln für die Hardware-Authentifizierung hat eine neue phishing-resistente Lösung für Microsoft-Ökosysteme vorgestellt. Sie kommt ohne Passwörter ➡ Weiterlesen