「性的ディープフェイク」深刻な被害 芸能人、女子中高生…誰でもポルノ画像に 作成を規制する法律もなく
東京新聞10/18(土)6:00
横井宏哉容疑者の自宅から押収されたスマートフォンやタブレットなど=16日、警視庁丸の内署で
生成AI(人工知能)で女性芸能人を模した偽の性的画像を作って売ったとして、会社員の男が警視庁に逮捕された。男は女性芸能人262人の偽の性的な画像を2万点も作っていたとされる。生成AIで偽の性的画像を作成する「性的ディープフェイク」の被害は深刻化しているが、政府も詳しい実態は把握できていない。偽画像であるが故の取り締まりの難しさもある。(西川正志)
◆ネット上で販売、120万円を売り上げていた男を逮捕
「女性芸能人は閲覧者の反響が大きく、多くの収益を見込めると思った」。わいせつ電磁的記録媒体陳列の疑いで、警視庁保安課が15日に逮捕した会社員横井宏哉容疑者(31)=秋田市=は調べにそう話したという。
逮捕容疑では、今年1月ごろ〜6月ごろ、女性芸能人を模した性的画像3点をウェブサイトにアップし、不特定多数の人が見られる状態にしたとされる。
同課によると、横井容疑者は、ネット上にあった女性のタレントやアイドルなどの顔写真を生成AIに大量に学習させて、性器や性行為の様子と組み合わせた画像を作成。ネット上で販売して、約120万円を売り上げていた。作ってほしい芸能人や画像の構図など客の要望も受けていたという。
捜査関係者によると、生成された画像は「一見して偽物と分からないほどの画像。被害者が『本物じゃない』と言っても信じてもらえない可能性もある」と危機感を強める。
◆コンビニで盗撮され性的画像をつくられた女子児童も
横井容疑者は芸能人を標的にしていたが、一般人を狙った性的ディープフェイクも横行している。警察庁によると、昨年1年間に全国の警察に寄せられた性的ディープフェイクに関する相談は100件以上で、被害者のほとんどが女子中高生だった。
卒業アルバムを悪用して、同級生の女子生徒の裸の画像を作った例が複数あったほか、九州地方の女子児童は、コンビニで面識のない40代の男に盗撮され、その写真をもとに性的画像を作成された。
誰もが被害に遭いかねない性的ディープフェイクだが、現在、作成自体を明確に規制する法律はない。横井容疑者も画像の作成ではなく、ネット上に公開した容疑で逮捕された。
◆「女性の尊厳を傷つけることが金を稼ぐ手段に」…急がれる規制
名誉毀損(きそん)罪の適用が思い浮かぶが、特定の人物の写真を学習させたとはいえ、AIがゼロから作り出した画像を実在の誰かと認定し、同罪に問うのはハードルが高いという。捜査関係者は「名誉毀損罪にあたるのかどうか。判例の積み上げがなさすぎる」と漏らす。
生成AIに詳しい岡田淳弁護士は「どこまで適用できるかの解釈にグレーな部分もあるが、捜査機関は積極的に現行法を活用するべきだ」とした上で、現行法で対応できない部分について、新たな法律で規制する可能性にも言及する。
性被害に詳しい太田啓子弁護士は「女性の尊厳を傷つけることが、娯楽になり、お金を稼ぐ手段になってしまっている。法規制を考えるためにも、被害実態の把握が急務だ」と訴える。