1. Audiostart News
  2. #154 アリゾナでAI音声合成の..
2023-05-22 02:21

#154 アリゾナでAI音声合成の声を使った身代金目的誘拐事件が発生

米国アリゾナ州で、詐欺師がAIを使用して娘の声を音声合成し、母親に電話をして娘を誘拐したと告げ100万ドルの身代金を要求した事件が発生したそうです。

【AD】
Audiostartでは、ポッドキャストに音声広告を掲載したい広告主を募集中です。詳細は以下のリンク先をご覧ください。
https://bit.ly/41jPwyu

【AD】
Audiostartでは、音声広告を掲載して広告報酬を受け取りたいポッドキャスターの方を募集しています。法人・個人問いません。詳細は以下のリンク先をご覧ください。
https://bit.ly/3GSVv5P
00:02
オーディオスタートニュースへようこそ。
この番組は、ロボットスタートによる音声広告やポッドキャストなど、音声業界の最新情報をお伝えする番組です。
ロボットスタートニュース
米国アリゾナ州で、詐欺師がAIを使用して娘の声を音声合成し、母親に電話をして娘を誘拐したと告げ、100万ドルのみのしろ金を要求した事件が発生したそうです。
母親は、電話の後ろで聞こえる命声をする音声合成された娘の声を聞いて、本人以外の声だとは疑いもしなかったそうです。
今回は、母親はみのしろ金を払う前に、父親を通じて娘に連絡を取り、娘は誘拐されておらずスキー旅行中で無事であることが確認できたため被害はなかったそうですが、母親のショックは計り知れないことでしょう。
アリゾナ州立大学のコンピューターサイエンス教授でAIの権威であるスバラオカンバンパティ氏によれば、現在たった3秒の声で本人の声を合成できるといいます。
十分に長い声のデータがあれば、抑揚や感情も含めて模倣することができるとのこと。
今回は娘がFacebookに投稿していた動画の声がデータとして使われたそうですが、この娘に限らず、ソーシャルメディアで誰もが聞ける形の音声データが公開される時代はこういうリスクがあるというわけです。
対策としては、ソーシャルメディアでプロフィールを一般公開にしないこと、AIの声に騙されないよう家族だけが知っている質問や合言葉などを使うことが考えられるそうです。
今回のように誘拐事件で使われるのは極端な例かもしれませんが、同様の手口として振り込め詐欺はすでに増加傾向とのことで、電話の声だけで人を判別するのが難しい時代になっていることを忘れないようにしましょう。
ではまた。
今回のニュースは以上です。
もっと詳しい情報を知りたい場合、オーディオスタートニュースで検索してみてください。
ではまたお会いしましょう。
02:21

コメント

スクロール