Dark-KI Services für Deepfakes oder Jailbreaking

Dark-KI Services für Deepfakes oder Jailbreaking Bild: KI - MS

Beitrag teilen

Generative KI-Tools haben das Potenzial, in naher Zukunft wirklich disruptive Cyberangriffe zu ermöglichen. Doch gibt es schon heute neue kriminelle LLMs oder Angebote von ChatGPT-ähnlichen Fähigkeiten in Hacking-Software? Eine Analyse von Trend Micro.

Während KI-Technologien in der Wirtschaft rasch an Akzeptanz gewinnen, gab es im vergangenen Jahr in der Welt der Cyberkriminalität zwar Versuche, eigene cyberkriminelle Large Language Models (LLMs) zu entwickeln, doch diese wurden weitgehend aufgegeben. Stattdessen verlegten sich die Kriminellen darauf, bestehende Modelle zu „jailbreaken“, das heißt, sie mit speziellen Tricks dazu zu bringen, ihre integrierten Sicherheitsvorkehrungen zu umgehen.

Anzeige

Jailbreaking-as-a-Service

So gibt es inzwischen Angebote wie Jailbreaking-as-a-Service. Hierbei nutzen Kriminelle raffinierte Techniken, um LLMs dazu zu bringen, Anfragen zu beantworten, die eigentlich blockiert werden sollten. Diese Techniken reichen von Rollenspielen über hypothetische Szenarien bis hin zur Nutzung fremder Sprachen. Dienstanbieter wie OpenAI oder Google arbeiten daran, diese Sicherheitslücken zu schließen. Cyberkriminelle Nutzer wiederum müssen deshalb auf raffiniertere Jailbreaking-Prompts zurückgreifen. So ist ein Markt für eine neue Klasse von kriminellen Diensten in Form von Chatbot-Angeboten für Jailbreaking entstanden.

„Cyberkriminelle haben KI schon lange vor dem jüngsten Hype um generative KI in der IT-Branche missbraucht. Deshalb hat sich Trend Micro in die kriminellen Untergrundforen begeben, um herauszufinden, wie Cyberkriminelle KI tatsächlich nutzen und einsetzen, um ihre Ziele zu erreichen und welche Art von KI-gestützten kriminellen Dienstleistungen angeboten werden. Dazu haben wir uns die Untergrundgespräche über KI angeschaut und festgestellt, dass das Interesse an generativer KI den allgemeinen Markttrends gefolgt ist, die Akzeptanz jedoch hinterherzuhinken scheint.

Viele LLM-Angebote von Kriminellen für Kriminelle

Wir haben auch LLM-Angebote von Kriminellen für Kriminelle gesehen. Darunter FraudGPT, DarkBARD, DarkBERT und DarkGPT, die viele Ähnlichkeiten aufweisen. Aus diesem Grund vermuten wir, dass sie höchstwahrscheinlich als Wrapper-Dienste für den legitimen ChatGPT oder Google BARD funktionieren – wir nennen sie Jailbreaking-as-a-Service-Dienste. Wir haben auch andere möglicherweise gefälschte kriminelle LLM-Angebote untersucht: WolfGPT, XXXGPT und Evil-GPT. Dabei befassen wir uns auch mit Deepfake-Diensten für Kriminelle: Wir haben Preise und einige frühe Geschäftsmodelle rund um diese KI-gestützten gefälschten Bilder und Videos gesehen.“ – David Sancho, Senior Threat Researcher bei Trend Micro.

Deepfake-Services auf dem Vormarsch

Zwar gibt es Deepfakes schon länger, aber erst kürzlich wurden echte cyberkriminelle Angebote entdeckt. Kriminelle bieten Deepfake-Dienste an, um Systeme zur Identitätsüberprüfung zu umgehen. Besonders im Finanzsektor wird dies zu einem zunehmenden Problem, da Banken und Kryptowährungsbörsen immer strengere Überprüfungen verlangen.

Die Erstellung von Deepfakes wird immer günstiger und einfacher. Cyberkriminelle nutzen diese Technologie, um gefälschte Bilder und Videos zu erstellen, die selbst fortgeschrittene Sicherheitssysteme täuschen können. Dabei reicht oft schon ein gestohlenes Ausweisdokument, um ein überzeugendes Fake-Bild zu erstellen. Interessant dazu ist auch der Artikel „Neue Masche Deep Fake Boss„.

Was bedeutet das für die Zukunft?

Die Entwicklungen zeigen, dass Kriminelle immer neue Wege finden, KI-Technologien zu missbrauchen. Obwohl die große Disruption bisher ausgeblieben ist, ist es nur eine Frage der Zeit, bis ernsthaftere Angriffe zu erwarten sind. Unternehmen und Privatpersonen müssen deshalb wachsam bleiben und ihre Cybersicherheitsmaßnahmen stetig verbessern, um gegen diese Bedrohungen gewappnet zu sein. Drei grundlegende Regeln cyberkrimineller Geschäftsmodelle werden dabei ausschlaggebend sein, wann bösartige Akteure in großem Stil auf GenAI setzen:

  • Kriminelle wollen ein leichtes Leben: Ziel ist es, mit möglichst geringem Aufwand und niedrigem Risiko ein bestimmtes wirtschaftliches Ergebnis zu erreichen.
  • Neue Technologien müssen besser sein als vorhandene Tools: Kriminelle übernehmen neue Technologien nur, wenn die Rendite höher ist als bei den bestehenden Methoden.
  • Evolution statt Revolution: Kriminelle bevorzugen schrittweise Anpassungen statt umfassender Überarbeitungen, um neue Risikofaktoren zu vermeiden.

Experten-Fazit zur KI-Nutzung

Der Bedarf an einem sicheren, anonymen und nicht nachverfolgbaren Zugang zu LLMs bleibt bestehen. Dies wird kriminelle Dienste dazu veranlassen, sich immer wieder neue LLMs zunutze zu machen, die einfacher zu jailbreaken oder auf ihre speziellen Bedürfnisse zugeschnitten sind. Derzeit gibt es mehr als 6.700 leicht verfügbare LLMs auf der KI-Community-Plattform Hugging Face. Es ist auch davon auszugehen, dass immer mehr alte und neue kriminelle Tools GenAI-Funktionen integrieren werden. Cyberkriminelle haben gerade erst begonnen, an der Oberfläche der tatsächlichen Möglichkeiten zu kratzen, die GenAI ihnen bietet.

Mehr bei TrendMicro.com

 


Über Trend Micro

Als einer der weltweit führenden Anbieter von IT-Sicherheit hilft Trend Micro dabei, eine sichere Welt für den digitalen Datenaustausch zu schaffen. Mit über 30 Jahren Sicherheitsexpertise, globaler Bedrohungsforschung und beständigen Innovationen bietet Trend Micro Schutz für Unternehmen, Behörden und Privatanwender. Dank unserer XGen™ Sicherheitsstrategie profitieren unsere Lösungen von einer generationsübergreifenden Kombination von Abwehrtechniken, die für führende Umgebungen optimiert ist. Vernetzte Bedrohungsinformationen ermöglichen dabei besseren und schnelleren Schutz. Unsere vernetzten Lösungen sind für Cloud-Workloads, Endpunkte, E-Mail, das IIoT und Netzwerke optimiert und bieten zentrale Sichtbarkeit über das gesamte Unternehmen, um Bedrohung schneller erkennen und darauf reagieren zu können..


 

Passende Artikel zum Thema

Report: Vertrauenswürdige Windows Anwendungen missbraucht

In seinem neuen Active Adversary Report 2024 belegt Sophos den Wolf im Schafspelz: Cyberkriminelle setzten vermehrt auf vertrauenswürdige Windows-Anwendungen für ➡ Weiterlesen

XDR: Schutz von Daten in Atlassian-Cloud-Applikationen

Mit einer neuen XDR-Erweiterung kann Bitdefender nun auch Daten in Atlassian-Cloud-Applikationen schützen. Somit ist das Überwachen, Erkennen und eine Reaktion auf ➡ Weiterlesen

APT-Gruppe TA397 attackiert Rüstungsunternehmen

Security-Experten haben einen neuen Angriff der APT-Gruppe TA397  – auch unter dem Namen „Bitter“ bekannt – näher analysiert. Start war ➡ Weiterlesen

Ausblick 2025: Lösungen für veränderte Angriffsflächen durch KI, IoT & Co

Die Angriffsfläche von Unternehmen wird sich im Jahr 2025 unweigerlich weiter vergrößern. Die datengetriebene Beschleunigung, einschließlich der zunehmenden Integration von ➡ Weiterlesen

Cloud Rewind für Wiederaufbau nach einer Cyberattacke

Eine neue Lösung für Cyber Recovery und zum Rebuild cloudzentrierter IT-Infrastrukturen. Commvault Cloud Rewind mit neuen Funktionen zum Auffinden von ➡ Weiterlesen

RAG: Innovative KI-Technologien bringen Gefahren mit sich

Seit der Einführung von ChatGPT 2022 wollen immer mehr Unternehmen KI-Technologien nutzen – oft mit spezifischen Anforderungen. Retrieval Augmented Generation ➡ Weiterlesen

Medusa-Ransomware-Gruppe betreibt offenen Opfer-Blog im Web

Auch Cyberkriminelle pflegen neben der direkten Kommunikation mit dem Opfer ihre Außendarstellung. Denn Reputation ist ein wichtiger Erfolgsfaktor für Ransomware-as-a-Service-Unternehmen. Der ➡ Weiterlesen

Lokale Backups: Rückkehr zum sicheren Hafen

Warum Unternehmen lokale Backup-Strategien wiederentdecken: In den letzten Jahren haben sich Unternehmen zunehmend in die Abhängigkeit von Cloud-Lösungen manövriert - ➡ Weiterlesen