オーディオディープフェイク、つまりコンピューターシステムで模倣された音声は常に進化しています。 その結果、AI を利用した詐欺行為が増加します。
加害者が被害者の子や孫を装い、危機的状況を装って経済的支援を得る、いわゆる「孫トリック」はすでによく知られている。 しかし現在では、声を模倣することに特化した人工知能が使用されており、これらの AI は場合によっては 30 分の音声素材を必要とし、それを使用してその人になりすますための完全な音声プロファイルを作成できます。 生成 AI を使用すると、これは驚くほどうまく機能します。 必要なオーディオを入手することも、これまでより簡単になりました。 ソーシャルメディアがそれを可能にします。
イミテーション音声はオリジナルと同じです
2021 年にアラブ首長国連邦で起きた事件で明らかなように、生成 AI が利用可能になる前から、企業環境におけるこのような不正行為の試みについてはすでに多くの報告があります。 そして、多くの部分が模倣された声と元の声を区別できないため、それに騙される人もいます。 AI が自由に使える素材が増えるほど、模倣された音声の異常を検出するのは難しくなります。
マカフィーの「人工詐欺師に注意してください」レポートによると、世界中の回答者の 25% が、AI 音声に似た音声を使用した詐欺電話を受けたことがある、またはその人物を知っていると回答しました。 イレブン ラボのようなオンライン サービスでは、30 分間の音声サンプルから合成音声を作成するインスタント音声クローン作成が提供されているため、脅威アクターが AI 音声ベースの詐欺行為をさらに悪用するのは時間の問題です。 報告書によると、回答者のほぼ半数 (48%) が、交通事故について電話がかかってきたら助けてくれる、47% が盗難について電話がかかってきたら助けてくれる、43% が財布を紛失した場合、41% が財布を紛失した場合に助けてくれるという。休暇中に助けが必要だった。
違いを見分けることができる人はほとんどいません
また、70%はその声が本物かどうか分からないと答えた。 したがって、電話が詐欺であるかどうかを判断する唯一の本当の手がかりは、電話自体が予期しないものであるという事実です。 ビジネスの世界でこの種の詐欺が利用される可能性は、CEO ギフトカード詐欺からデジタル詐欺などにまで及びます。これらすべてにおいて、ユーザーは組織内のセキュリティ意識向上トレーニングに継続的に参加し、たとえ声が上がっているときでも警戒を続ける必要があります。電話の向こう側は聞き覚えのある音です。
詳しくは KnowBe4.com をご覧ください
KnowBe4について KnowBe4 は、セキュリティ意識向上トレーニングとフィッシングのシミュレーションのための世界最大のプラットフォームを提供するプロバイダーであり、世界中の 60.000 社以上の企業で使用されています。 IT およびデータ セキュリティのスペシャリストである Stu Sjouwerman によって設立された KnowBe4 は、セキュリティ教育への新しいアプローチを通じてランサムウェア、CEO 詐欺、その他のソーシャル エンジニアリング戦術に対する意識を高めることで、組織がセキュリティの人的要素に対処できるよう支援します。 国際的に認められたサイバーセキュリティのスペシャリストであり、KnowBe4 の最高ハッキング責任者である Kevin Mitnick は、十分に文書化されたソーシャル エンジニアリング戦術に基づいて KnowBe4 トレーニングの開発を支援しました。 何万もの組織が、最後の防御線としてエンド ユーザーを動員するために KnowBe4 に依存しています。
トピックに関連する記事