合成動画で逮捕 AIのウソに抵抗力を

2020年10月7日 07時10分
 人工知能(AI)技術で女優のわいせつ動画を作成、公開した男たちが逮捕された。「ディープフェイク」と呼ばれる手法だが、海外では政治デマにも使われ、脅威になっている。警戒が必要だ。
 今月二日、警視庁や京都府警などが名誉毀損(きそん)や著作権法違反の疑いで摘発した。男らはAIのディープラーニング(深層学習)という技術を駆使し、わいせつ動画の映像に有名な女優らの顔を入れ替え、インターネット上で公開していたという。この技術を使った専用ソフトはネット上で無償提供されている。
 こうした動画は「フェイクポルノ」と呼ばれる。日本では今回が初の摘発だが、海外では数年前から深刻な問題となってきた。オランダのセキュリティー会社によれば、六月現在、約四万九千本がネット上で公開されている。
 より深刻な問題はこの種の合成動画がポルノのみならず、政治的なデマや世論操作に使われ始めていることだ。技術的には音声合成も可能で、素人でも容易に精巧なデマ動画が作成できるという。
 八月末には米大統領選で民主党候補のジョー・バイデン氏がテレビ番組に出演中、居眠りをしている動画が作られ、ホワイトハウス関係者も拡散していた。バイデン候補の高齢という弱みを強調したい意図があったとみられる。
 現在進行中のアルメニアとアゼルバイジャンの紛争でも、第三国からの武器流入や義勇兵の存在を訴える動画がネット上にあふれている。しかし、出典が不明だったり、論理的におかしな内容も少なくなく、しばしば合成動画の疑いが指摘されている。
 こうした例は枚挙にいとまがない。デマ動画が拡散した後、偽物と分かっても、その情報は最初の動画ほどには広まらないという研究結果もあり、影響は重大だ。
 事態の悪化に対し、米国は法規制に動いている。バージニア州は昨年七月、フェイクポルノの流布に刑事罰を科す法律を施行、テキサス州などでも選挙に影響を及ぼすような合成動画の公開を禁じた。IT大手のフェイスブックやツイッターも操作された動画や写真について、投稿禁止や削除の方針を打ち出している。
 日本でも表現の自由に配慮した上での拡散防止対策が必要だ。ただ、その実効性には限界がある。動画の出典を確かめたり、論理的に内容を疑ってみる。そうしたネット利用者のデマに対する抵抗力の向上がなによりも不可欠だ。

関連キーワード

PR情報