特集

生成AI

世界中で急速に利用が広がる生成AI技術。私たちの暮らしをどう変える?

特集一覧

「性的ディープフェイク」急拡大 生成AIが下げた危険なハードル

性的ディープフェイクとは

 生成AI(人工知能)を悪用し、実在する子どもや成人女性などを性的に加工した画像や動画「性的ディープフェイク」が国内で急拡大している。偽の性的画像は以前から問題になっていたが、生成AIの登場で事態はより深刻な局面に入り、新たな問題にも直面している。被害の実態や手口を追った。

「爆発的」な広がり

 「この集合写真、女の子だけが全員裸に加工されてしまっている」

 インターネット上をパトロールするボランティア団体「ひいらぎネット」の永守すみれ代表は、パソコン画面をスクロールしながら険しい表情を見せた。

 従来の偽の性的画像の場合、既存のポルノ画像に顔をはめ込む形が一般的だ。一方ディープフェイクは顔や背景は元のままで、体が生成された裸であることが多いという。顔と体の継ぎ目部分も分からないなど、より精巧にもなっている。

 永守さんらは児童ポルノや盗撮画像などを探し、プラットフォーム事業者や警察、学校などに通報する活動を約5年前から続けてきた。ここのところ性的ディープフェイクが「爆発的に広がっている」と感じている。

 昨年ごろまで1枚の画像が1枚のヌード画像に加工されるパターンが多かった。ところが「たった数カ月で、偽画像だけでなく、動画、音声まで見かけるようになってきた」と振り返る。被写体の顔画像データをAIに集中的に学習させれば意図した動画を作り出せるため、多くの偽動画が出回るようになった。

生成に数十秒 卒アル、学校行事狙い

 性的ディープフェイクは、どのように作られているのだろうか。基となる画像は著名人に限らず、一般人もターゲットになる。交流サイト(SNS)上に個人がアップした写真や卒業アルバム、学校行事写真が狙われる。

 卒業アルバム画像は同級生などが流出させているとみられるが、制作する印刷会社がサイバー攻撃を受け、顔写真や氏名が流出する事案もここ最近各地で起きている。流出画像悪用の可能性も否定できない。

 学校行事写真は撮影業者が専用サイト上に掲載し、家庭ごとに購入したい写真を選択するシステムを採用している学校が多く、その画像も流用されているとみられる。ネット上では「学校ごとの販売サイトのログインIDとパスワードを交換しよう」というやり取りもあるほどだ。

 次の「加工」段階が、生成AIの登場で…

性的ディープフェイクとは

この記事は有料記事です。

残り1365文字(全文2316文字)

有料記事が読み放題

ご登録から1カ月間は99円!!

今すぐ登録して続きを読む

※会員ページからいつでも解約できます。

ログインする

【時系列で見る】

生成AIを見る

政治からスポーツ、芸能まで最新ニュースをタイムリーに!通知設定をご活用ください