人工知能(AI)で精巧な偽動画を作る技術「ディープフェイク」による犯罪が顕在化してきた。芸能人の顔を合成したポルノ動画をインターネットに投稿した男らを警察が初摘発した。被害は氷山の一角とみられ、海外では政治家や企業も被害に遭った。見破る技術の開発も進むが、いたちごっこが続いている。
警視庁や京都府警などは2日までに、ディープフェイクを使ってアダルトビデオを合成したとされる男3人を名誉毀損と著作権法違反の疑いで逮捕した。被害に遭った女性芸能人は延べ約150人に上り、500本を超える動画が違法に公開された疑いがある。
うち1人の男は動画1本あたり3万枚の画像をAIに読み込ませ、機械学習を1週間繰り返して作成していたという。警視庁は国内で3500本超の合成動画を確認した。捜査幹部は「合成ポルノは被害者の尊厳を傷つける重大な犯罪。被害は広がっており、取り締まりを強める」と話す。
ディープフェイクは特定の人物の写真など膨大なデータをAIに読み込ませ本物のような動画を作る技術だ。AIに詳しいデータグリッド(京都市)の岡田侑貴社長によると、制作過程では動画を生成するAIと、本物か偽物かを見破る別のAIが競いながら学習し精度を高める。「技術や知識は必要だが、専用のソフトウエアも流通しており作り手のハードルは下がっている」と話す。
動画サイトやSNS(交流サイト)には大量の動画や画像が投稿されており、AIに読み込ませる「素材」を集めやすい。オランダのセキュリティー企業によると、6月にネット上で確認されたディープフェイクは約4万9000件。大半がポルノ動画だが、悪用の幅は広がりつつある。
2019年に英エネルギー関連会社の最高経営責任者(CEO)が、ドイツの親会社の幹部を装う相手に電話で送金を指示され、約2600万円をだましとられる事件があった。ディープフェイクは動画だけでなく音声の生成も可能で、幹部の声は音声データをAIが学習し、再現したとみられる。
政治家の動画を合成し虚偽の情報を流すケースも相次ぐ。マレーシアでは19年、閣僚が同国で禁止される同性との性行為動画を偽造、拡散された。11月に大統領選を控える米国では偽情報への懸念が強まっており、カリフォルニア州は候補者の言動などを改ざんした動画の配布を禁じた。
米マイクロソフトは9月、動画の偽造をAIで見破り自動検知するソフトを発表した。米フェイスブックは偽の投稿動画を独自の基準で削除するなど各IT企業もディープフェイク対策を急ぐ。
米マカフィー日本法人の桜井秀光セールスエンジニアリング本部長は「ディープフェイクはなりすましによる詐欺や本人認証の突破といった様々な犯罪のツールになる恐れがある。今後も精度が高まっていくのは間違いなく、偽物を見破る技術の向上が求められている」と警鐘を鳴らす。