AI生成のクローン音声使ったなりすまし詐欺、「数百万人」が狙われる可能性 英銀行が警告
ロンドン(CNN) 人工知能(AI)を駆使したクローン音声の生成により、銀行に預金する「数百万人」の顧客が詐欺の被害者になる可能性がある。オンラインに特化した英スターリング銀行がそう警告している。
同行が18日の報道向け発表で明らかにしたところによれば、詐欺師たちはAIを使うことで3秒間の音声を基にその人物の声を複製できる。音声記録はネットへの投稿などで入手するという。
詐欺師たちはその後、当該人物の友人や家族を特定し、AIでクローン生成した音声で金を要求する偽の電話をかける。
スターリング銀行は、この種の詐欺に「数百万人が引っかかる」可能性があると述べた。
数百人単位でなら、既に影響は出ている。同行が調査会社と共に先月実施した調査によれば、成人3000人超のうち、過去1年の間にAIでクローン生成した音声の標的にされたことがあると回答したのは4分の1以上に上った。
回答者の46%については、そのような詐欺の存在を認識していないことも明らかになった。友人や家族から電話がかかってきた場合、不審に思いながらも要求された金額を送るだろうと答えたのは8%だった。
スターリング銀行の最高情報セキュリティー責任者を務めるリサ・グレアム氏は、「人々は日常的に自分たちの音声を記録したコンテンツをネットへ投稿しているが、それで詐欺師に狙われやすくなるなどとは思いもよらない」と指摘した。
同行は人々に対し、親しい人たちの間で「安全フレーズ」を共有しておくことを推奨。簡単で覚えやすい合い言葉を用意し、電話をかけている自分が本物だと証明するのに使うよう呼び掛けている。
AIがますます巧妙に人の声をコピーできるようになる中、そうした機能が他人の銀行口座へのアクセスや誤情報の拡散などに悪用されるのではないかとの懸念も高まっている。
生成AIツールの「ChatGPT」を開発したオープンAIは、自社の音声模倣ツール「ボイス・エンジン」を発表したが、生成した音声の悪用が懸念されるとして現段階での一般公開には踏み切っていない。