AIポルノ、芸能人262人模す 名誉毀損の判断基準なく 立証は困難
毎日新聞
2025/10/16 17:48(最終更新 10/16 18:14)
有料記事
1145文字
生成AI(人工知能)を悪用して作る性的な偽画像「ディープフェイクポルノ」に関し、警視庁は実在する女性タレントに酷似させたポルノ画像の作成・販売を摘発した。
押収されたパソコンからは、262人の女性芸能人を模したポルノ画像が見つかった。写真の加工ではなく、全て生成AIで作られたとみられる。
一方で、こうした女性の名誉を毀損(きそん)したとして立件するには難しさがあるという。
◇「アイコラ」は名誉毀損罪で立件
性的な偽画像としてはこれまで、著名人の顔写真にヌード画像を組み合わせた合成写真「アイコラ」(アイドルコラージュ)が知られてきた。
この場合、顔写真が使われた被害者への名誉毀損罪に当たると考えられ、制作者が立件されたケースが多くある。
一方、ディープフェイクポルノは、…
この記事は有料記事です。
残り807文字(全文1145文字)
全ての有料記事が読み放題
あわせて読みたい
Recommended by