Audio Deepfakes, also mit Computersystemen imitierte Stimmen, entwickeln sich stetig weiter. Daraus folgt ein Anstieg aus KI unterstützten Betrugsversuchen.
Der sogenannte „Enkeltrick“, bei dem sich der Täter meist als Kind oder Enkelkind des Opfers ausgibt und eine Krisensituation vorgibt, um finanzielle Unterstützung zu erlangen, ist bereits bekannt. Nun werden dabei jedoch künstliche Intelligenzen verwendet, die darauf spezialisiert sind, Stimmen zu imitieren.Diese KIs brauchen teilweise lediglich 30 Minuten an Audiomaterial und können daraus ein vollständiges Stimmprofil erstellen, mit dem diese Person imitiert werden kann. Mit dem Einsatz von generativer KI gelingt dies erschreckend gut. An das benötigte Audiomaterial zu kommen ist heute auch leichter als jemals zuvor. Social Media macht es möglich.
Imitierte Stimme gleicht dem Original
Es gibt bereits viele Berichte, sogar vor der Verfügbarkeit von generativer KI, von derartigen Betrugsversuchen auch im Unternehmensumfeld, wie ein Vorfall in den Vereinigten Arabischen Emiraten aus dem Jahr 2021 beweist. Und viele fallen auch darauf herein, weil ein großer Teil gar nicht in der Lage ist, die imitierte Stimme von seinem Original zu unterscheiden. Je mehr Material der KI zur Verfügung steht, desto schwerer wird es, Auffälligkeiten in der imitierten Stimme zu erkennen.
Der Bericht „Beware the Artificial Impostor“ von McAfee zeigt auf, dass weltweit 25 Prozent der Befragten angaben, selbst schon einmal einen Betrugsanruf mit klangähnlicher KI-Stimme erhalten zu haben oder jemanden kennen, dem dies passiert ist. Mit Online-Diensten wie denen von Eleven Labs, die Instant Voice Cloning anbieten, um eine synthetische Stimme aus 30 Minuten Audio-Samples zu erzeugen, ist es nur eine Frage der Zeit, bis Bedrohungsakteure KI-Stimmen-basierte Betrugsversuche noch stärker ausnutzen. Laut dem Bericht würde fast die Hälfte (48 %) der Befragten helfen, wenn sie einen Anruf wegen eines Autounfalls erhielten, 47 Prozent bei einem Anruf wegen eines Diebstahls, 43 Prozent bei einem verlorenen Geldbeutel und 41 Prozent, wenn sie im Urlaub Hilfe bräuchten.
Nur wenige erkennen den Unterschied
70 Prozent sagten außerdem aus, dass sie nicht erkennen könnten, ob die Stimme echt ist oder nicht. Der einzige wirkliche Anhaltspunkt dafür, ob es sich bei einem Anruf um einen Betrug handelt oder nicht, ist also die Tatsache, dass der Anruf selbst unerwartet kommt. Die Anwendungsmöglichkeiten für diese Art von Betrug in der Geschäftswelt reichen von CEO-Geschenkkartenbetrug bis hin zu digitalem Betrug und vielem mehr – sie alle erfordern, dass die Benutzer innerhalb des Unternehmens kontinuierlich an Security Awareness-Trainings teilnehmen, damit sie wachsam sind, selbst wenn die Stimme am anderen Ende des Telefons vertraut klingt.
Mehr bei KnowBe4.com
Über KnowBe4 KnowBe4, der Anbieter der weltweit größten Plattform für Security Awareness Training und simuliertes Phishing, wird von mehr als 60.000 Unternehmen auf der ganzen Welt genutzt. KnowBe4 wurde von dem IT- und Datensicherheitsspezialisten Stu Sjouwerman gegründet und hilft Unternehmen dabei, das menschliche Element der Sicherheit zu berücksichtigen, indem es das Bewusstsein für Ransomware, CEO-Betrug und andere Social-Engineering-Taktiken durch einen neuen Ansatz für Sicherheitsschulungen schärft. Kevin Mitnick, ein international anerkannter Cybersicherheitsspezialist und Chief Hacking Officer von KnowBe4, half bei der Entwicklung der KnowBe4-Schulung auf der Grundlage seiner gut dokumentierten Social-Engineering-Taktiken. Zehntausende von Organisationen verlassen sich auf KnowBe4, um ihre Endbenutzer als letzte Verteidigungslinie zu mobilisieren.
Passende Artikel zum Thema