AIで音声を合成し、警察に通話
Viceの記事によれば、Torswatsは顧客から依頼を受けて実行したスワッティングの結果を、同じアカウント上で「成果」として誇らしげに公開していた。そうした情報の中に、AI技術によって合成された音声で行われた、警察への通話の記録が含まれていたのである。
Viceがそうした通話記録の一部を保存しており、音声ファイル共有サービスのサウンドクラウド上にいくつか再掲載しているのだが、それを聴くと数種類の男性の音声で通報が行われていることがわかる。Torswatsを運営していた人物は、こうしてAIに数種類の音声を合成させることで、摘発を逃れていたと思われる。
音声合成も、近年AIの力で飛躍的に性能の向上、ならびにコストの低下が進んでいる領域のひとつだ。たとえばマイクロフトは、たった3秒の音声サンプルさえあれば、そのデータを基にどんな音声でも合成できるという技術「VALL-E」を今年1月に発表している。
またある程度の品質で構わない、特定の人物の声に似ていなくても良いというのであれば、無料からごくわずかな額で音声合成してくれるウェブサービスやソフトウェアが、いくつも利用可能な状態となっている。Torswatsはこうした技術を悪用して、誰もが「気軽に」スワッティングを依頼できるサービスを立ち上げたというわけだ。
音声合成AIについては他にも、いわゆる「振り込め詐欺」の成功率を上げるために使われているのではないかという懸念がある。今年3月、ワシントンポスト紙が米国での振り込め詐欺の増加を報じる記事を掲載しており、実際に子供や孫の声に似せた音声が使われた詐欺事件があったことを伝えている。
AIよりも私たちが懸念すべきもの
もちろんすべての振り込め詐欺に音声合成AIが使われるようになっているわけではないが、スワッティングと同様、こうした犯罪に手を染めようとする際の物理的・心理的なハードルを下げていることは間違いないだろう。
映画『ターミネーター』のように、AIが自らの意思で人類に害をなすようになる、という心配をする必要は当面なさそうだ。しかしここで紹介したように、人間が自らの犯罪を容易化するためにAIの力を借りる、という現象はさまざまな形で見られるようになっている。技術の進化するスピード以上に私たちが懸念すべきなのは、それを思いもよらぬ形で悪用しようとする、人々の発想力なのかもしれない。
・・・
ログインして読む
(残り:約191文字/本文:約4181文字)