特集

生成AI

世界中で急速に利用が広がる生成AI技術。私たちの暮らしをどう変える?

特集一覧

AIポルノ、芸能人262人模す 名誉毀損の判断基準なく 立証は困難

事件の構図
事件の構図

 生成AI(人工知能)を悪用して作る性的な偽画像「ディープフェイクポルノ」に関し、警視庁は実在する女性タレントに酷似させたポルノ画像の作成・販売を摘発した。

 押収されたパソコンからは、262人の女性芸能人を模したポルノ画像が見つかった。写真の加工ではなく、全て生成AIで作られたとみられる。

 一方で、こうした女性の名誉を毀損(きそん)したとして立件するには難しさがあるという。

◇「アイコラ」は名誉毀損罪で立件

 性的な偽画像としてはこれまで、著名人の顔写真にヌード画像を組み合わせた合成写真「アイコラ」(アイドルコラージュ)が知られてきた。

 この場合、顔写真が使われた被害者への名誉毀損罪に当たると考えられ、制作者が立件されたケースが多くある。

 一方、ディープフェイクポルノは、…

この記事は有料記事です。

残り807文字(全文1145文字)

全ての有料記事が読み放題

ご登録から1カ月間は99円!!

※会員ページからいつでも解約できます。

※料金は税込です

【時系列で見る】

関連記事

あわせて読みたい

この記事の特集・連載

この記事の筆者

アクセスランキング

現在
昨日
SNS

スポニチのアクセスランキング

現在
昨日
1カ月