追記:”生成AI規制は実は日本版アチョン法であり表現規制”というタイトルだったものを”ディープフェイクポルノ規制は実は日本版アチョン法であり表現規制”に変更しました。
私は生成AIという言葉が詐欺であり全自動剽窃機と呼んでいますが、”生成AI規制”と言ったら法によって全自動剽窃機の使用を禁止し、使用した者には罰が下るべきだと思っています。
ですので厳密に”ディープフェイクポルノ規制”に変更し、この場合韓国ですでに施行されているものと同様のものと考えます。つまり日本版アチョン法なので表現規制につながるという意図です。

児童や学生と思われるポルノ画像を生成し公開した場合

刑法で非親告罪化されました。また無償提供も罪に問われます。
3年以下の懲役または300万円以下の罰金
ネットで送信する場合は
5年以下の懲役もしくは500万円以下の罰金となり、またはこれを併科されます。
合わせて8年以下、800万円以下の罰金

ここで言いたいのは~
1)体が児童である証拠
2)顔が児童である証拠
絵でもモデルとなった児童の存在が確認できれば有罪となる判決は出ている。
件の場合2の証拠は252人分あると報道している。
通常はすでに実在児童がモデルになっているので逮捕可能な案件のハズだ。252人児童服脱がし犯として。

1の証拠が全自動剽窃機から絶対に出ないから無罪ですという言い訳を通してしまうと、韓国のように生成AIでも手描きでも未成年(18歳以下)の裸は禁止という表現規制につながる。超アチョン法。
だから1の証拠がなくても全自動剽窃機が児童の裸を取り込んでいるのは明白だからと逮捕しなければならない。

また児童ポルノだと判定されるようなものをネットなどで公開したり販売してない。私的利用の範囲内だから無罪ですということも許してはいけない。
理由は児童ポルノは単純所持罪があるからだ。バレた時点で有罪。

つまりこの件に限って言えば逮捕すべきだ。
逮捕しないという事は生成AIを僭称する全自動剽窃機を使った児童ポルノ製造等罪は無罪ということになり、別の法規制が必要となる。

韓国は元々アチョン法があったのでそれを強化しただけだが、日本では確実に表現規制になる。

韓国「ディープフェイク」問題 さらなる対策強化の法案を可決

警察がちゃんと非親告罪で動いてくれないと証拠の為に画像を保存した場合も有罪になりかねないんだよ。
児童ポルノ単純所持罪で。

だからそれは犯罪行為であり、非親告罪で逮捕されるべきだし、逮捕されないのであれば表現規制するしかない。
そういった警告をするだけだ。警告しかできない。