詐欺師が AI を使って誰の声も偽造できるようになった


AI のような強力な新テクノロジーが規制なしで社会に導入されると、自分の利益のためにそのツールを使用する人々が現れるでしょう。そして当然のことながら、AI は詐欺師の仕事をはるかに簡単にし、より信頼できるものにしています。について書きました。「仮想誘拐」詐欺この計画では、詐欺師は、苦しんでいる子供たちの一般的な音声録音を使用して家族に電話し、相手が自分の子供だと思い込むことを期待します。しかし今、詐欺師は実際にあなたの子供のものを利用しています。実際のAI 音声ジェネレーターの助けを借りて音声を生成します。

AI音声ジェネレーターとは何ですか?

このようにしてボイスモッドスペインの効果音ソフトウェア会社である は、AI 音声生成テクノロジーを次のように定義しています。

AI音声とは、人工知能と深層学習を利用して人間の音声を模倣した合成音声です。これらの音声は、Voicemod Text to Song や speech to speech など、テキストを音声に変換することで使用できます。これが AI 音声コレクションの仕組みです。

このテクノロジーは現在、連邦取引委員会は「詐欺師詐欺」に分類しています。ここでは、詐欺師が家族や友人を装い、被害者(通常は高齢者)からお金をだまし取ります。 2022 年には、電話によるなりすまし詐欺の報告が 5,100 件以上あり、損失総額は 1,100 万ドルに達しました。ワシントンポスト紙によると

Voicemod など、ほとんど見落とされることなく AI を使用して音声を生成できるサービスが簡単に利用できます。 Microsoft の VALL-E テキスト読み上げ AI モデルは、わずか 3 秒の音声で誰の声もシミュレートできると主張しています。Ars Technicaの報道によると

カリフォルニア大学バークレー校のデジタル法医学教授ハニー・ファリド氏は、「人の声のピッチ、音色、個々の音を再現して、全体的に似た効果を生み出すことができる」と述べた。ワシントンポストに語った。 「YouTube、ポッドキャスト、コマーシャル、TikTok、Instagram、Facebook ビデオなどの場所から取得した短い音声サンプルが必要です。」

AI音声生成詐欺はどのように行われるのでしょうか?

詐欺師は、AI 音声生成テクノロジーを使用して、誰か (多くは幼い子供の) の声を模倣し、親族をだまして子供が身代金を要求されていると思い込ませます。詐欺師は子供を無事に解放する代わりに、多額の金銭を要求する。

このことからわかるようにNBCニュースの報道、ソーシャル メディアから人の声のサンプルを取得し、それを使用して言いたいことを生成するのは簡単です。レポーターがAIジェネレーターが実際に彼女であると同僚を騙すことができ、そのうちの1人が買い物をするために彼女に会社のカードを貸すことに同意したというのは非常に現実的です。

この詐欺は信じられないほど現実的であり、人々は不意を突かれています。同じ技術を使用したさまざまなバリエーションもあります。カナダの夫婦は「弁護士」からの偽電話を受けて2万1000ドル(米ドルで1万5449ドル)を失った。詐欺師は外交官の息子を交通事故で殺害したとされ、子供の代理人を装っていて、「訴訟費用」のお金が必要だった。同じワシントン・ポスト紙の報道によれば、彼らの息子は「刑務所に入れられていた」という。

AI 音声生成詐欺に引っかからないようにするにはどうすればよいでしょうか?

最良の防御線は認識です。この詐欺について知識があり、その仕組みを理解していれば、自分やあなたの愛する人の身に詐欺が起こった場合でも、それに気づく可能性が高くなります。

そのような電話を受けた場合は、誘拐されたとされる子供または「被害者」に直ちに電話するかビデオチャットする必要があります。身代金を渡すために当局に連絡したり、クレジットカードに手を伸ばしたりする代わりに、これを行うのは直感に反するように思えるかもしれませんが、自分で当局に電話することで、詐欺師の幻想を打ち砕くことができます。それが実際に詐欺だった場合、相手の電話で「被害者」が通常通りの日常を過ごしているのが聞こえたり、見たりすることになるでしょう。

残念ながら、これらの解決策以外に、標的にされるのを防ぐためにできることはあまりありません。それができるテクノロジーが導入されていますAIの活動を検出するビデオ、画像、音声、テキストで保存できますが、このような状況で役立つように一般に公開されているわけではありません。この問題を引き起こしたのと同じテクノロジーが、最終的にはそれ自体を管理する解決策を生み出すことが期待されています。