Thomas Wan
此種情形, 韓國在N號房之後, 立刻新修訂「性暴力犯罪之處罰等相關特例法」才有辦法處罰這種AI換臉, 若參考日本法律實務, 目前日本的刑法, 只有《禁止兒童賣淫和兒童色情製品法》禁止製作或發佈真實兒童的性圖像。 但只有在AI生成的圖像只有在故意製作成與「真實兒童」相似時才是非法的。 所以對成人而言. 被未有明定製作虛假成人的色情影片圖片, 是有罪責的. 目前看來靠的是AI倫理的規範, 歐盟也是 (因此EU AI基本法才保護到這部分基本權)
過往有立論基於AI 照片是合成的, 並不是本人真實的照片,無所謂隱私的課題. 作為辯論依據, 韓國最始的的刑法也只罰散佈, 而不罰製作, 至於我國是小玉事件之後, 也才修改法律.
所以這篇報導很有趣, 雖然新聞(本人?) 說AI換臉, 但律所聲明內卻完全略去科技的部分. 影片是否就是本人或是合成的本人, 概非律師所問, 反正就是侵害了性隱私. 這篇律師的聲明, 細思頗有鋪排.