第11回生成AIは歴史を歪曲するか 専門家が危惧する「破滅へのとば口」
ほほえむクレオパトラに、話しかけてくるチンギス・ハーン――。最新の生成AI技術は、過去の偉人すら色鮮やかによみがえらせます。本物と偽物があいまいになった社会は、どこに向かうのか。フェイク情報とどう向き合うかを研究する国立情報学研究所の越前功教授に聞きました。
「百聞は一見にしかず」 通用しない時代
――生成AI技術の進化が社会に及ぼす影響をどう見ていますか。
「百聞は一見にしかず」は、いまのサイバー空間でもはや成立しなくなりました。生成AI(人工知能)によって、写実性の高い偽の画像や映像が、誰でも簡単につくれるようになり、フェイクだらけになっているからです。
たとえば人の顔。ネット上には高画質の人間の写真が大量に出回っています。カメラ性能や通信技術の向上で、多くの個人が顔写真をSNSにアップするなど、生成AIが学習する生のデータは膨大です。データが多いほど、実際には存在しない「自然な顔」を作り上げられます。
――「ディープフェイク(偽動画)」のニュースも、よく聞くようになりました。
「フェーススワップ」という技術は、動画の顔を別人に置き換えてしまいます。偽物だと分からないレベルです。「リップシンク」は、音声に合わせてアニメや映像の口を動かす技術。いずれも、ディープフェイクの元になっています。
ディープフェイクは2017年、18年ごろに出てきて、問題がたくさん起きました。SNSで顔を偽ってジャーナリストに成りすまして株価操作を図る試みや、ロシアに降伏を呼びかけるウクライナのゼレンスキー大統領の有名な偽動画などです。
21年に米国であった事件では、娘のチアリーディング部のライバルを蹴落とそうとわいせつ画像を作った母が逮捕されました。このニュースにはエンジニアなど専門家は出てきません。ディープフェイクが「コモディティー化(汎用(はんよう)化)」し始めたということです。
「考古学的な大発見!」 全部ニセもの
――誰でも簡単に偽動画をつくれると。
20年ごろには「拡散モデル」という技術が出てきました。画像や映像を加工して顔を置き換えるディープフェイクに対し、プロンプト(命令文)の入力だけで任意の画像を作り出せます。
ポルノ画像と著名人のデータを組み合わせて、プロンプト一つで著名人が裸になったように見える画像も作れます。実際、フリマアプリなどで、生成AIでつくった俳優の裸画像が出品され、売れています。
生成AIが歴史を書き換える……。あながち荒唐無稽な話ではありません。歴史的な白黒写真を装ったイラストがネット上にあふれる現状を、専門家は憂えます。
――記者は、情報のウラ取り…