サッカー協会幹部の児童ポルノ事件 ー 子どもを性的対象にし続ける日本社会の危うい感覚
JFA幹部逮捕の衝撃
2025年10月、フランスの裁判所で、日本サッカー協会(JFA)の元技術委員長・影山雅永氏に有罪判決が言い渡された。
同氏はフランスへ向かう国際線の機内で、児童の性的画像を閲覧・所持したとして逮捕され、捜査や公判では「AIが生成したもので実在の子どもではない」「これはアートである」などと主張したと報じられている。
しかし、裁判では実在する児童を含む可能性が高いと指摘され、AI生成かどうかにかかわらず、児童を性的対象にした「表象」の所持が違法と判断された。
この事件は、AI時代の「子どもを性的対象とする感覚の鈍さ」を浮き彫りにし、日本社会の課題を突きつけた。
「AIだから無害」という錯覚
犯罪心理学では、加害行動を支える心理的メカニズムとして「認知の歪み」が知られている。これは、自らの加害行為の責任や影響を小さく見積もり、「誰も傷つけていない」と正当化する傾向だ(Ward & Keenan, 1999)。
今回の「AIだから」「芸術だから問題ない」「実在しないから無害」という主張は、その典型といえる。
だが、AI生成画像も「誰も傷つけていない」とは言えない。
国際的な監視機関であるInternet Watch Foundation(2024)は、AI生成児童ポルノの多くが、既存の児童画像や肖像を学習素材として使っていると警告している。つまり、生成物の背後には現実の子どもの身体情報が含まれている可能性がある。
さらに、Setoら(2018)によるメタアナリシスでは、児童ポルノの閲覧者の一部に実際の加害行為へと移行するリスクが確認されており、仮想的な閲覧行為も子どもへの性加害のリスクを高めることが示唆されている。
日本社会の「罪悪感の乏しさ」はどこから来るのか
影山氏は裁判で「日本では個人使用なら禁止されていない」と述べたという。これは単なる言い訳というだけではすまされず、日本の法制度や社会そのものがそうした認識を生みやすい構造を持つ。
日本の「児童買春・児童ポルノ禁止法」は2014年に改正され、実在児童の性的画像の所持が違法となった。しかし、アニメ・漫画・CG・AIなど「実在しない児童」を描いた表現は処罰対象外である。
一方、フランス刑法第227-23条は「児童のポルノ的な画像または表象」の所持自体を違法とし、実在か否かを問わない。この違いが、国際的な基準とのギャップを広げている。
また、日本ではアニメ文化の中で「ロリコン」的表現が長く共存してきた。それ自体を一律に否定することはできないが、「現実と虚構を区別できるから問題ない」という言説が、社会的な危機感を鈍らせてきた面がある。
国連の児童の権利委員会(UNCRC, 2015)は、日本政府に対し「児童を性的に描写する漫画やアニメが搾取文化を助長する」として見直しを求めたが、法的対応は進んでいない。
つまり、影山氏が示した罪悪感の乏しさは個人のモラルの問題にはとどまらず、日本の文化・制度・規範が生み出す構造的な現象であるといえる。
裁判が示したもの――AIと実在の境界は消えつつある
今回の裁判では、影山氏の「AI生成だった」という主張は退けられた。報道によれば、当局は画像の一部が実在の児童をもとにしたものである可能性を指摘し、裁判所も「実在か否かにかかわらず、児童を性的に描く行為は違法」と判断した(Le Parisien, 2025年10月6日付)。
つまり、AI生成か否かという線引き自体が、もはや有効ではなくなっている。さらに、AI時代においては、「現実の被害者がいない」という前提が崩れている。AIが過去の児童画像を学習している以上、「無害な仮想世界」は存在しない。
また、AIで作られた画像が「現実に存在するように見える」ことで、児童を性的対象とする行為が社会的に正当化されやすくなる危険もある。この「現実と虚構の融合」が、倫理的な防波堤を崩していく。
今後の課題
1.法制度の更新
AIやCGなどの写実的な児童表現を、少なくとも「高リスク領域」として位置づけ、制作・所持・共有の意図や写実性に応じた新たな規制枠組みを検討する必要がある。
これは表現の自由の制限ではなく、技術変化に応じた児童保護政策のアップデートである。
2. 倫理教育と啓発
学校やスポーツ団体、企業の研修で、「AIでもアニメでも、子どもを性的対象にすることは社会的に許されない」という基本原則を明示すべきだ。
研究では、認知の歪みを修正する教育が再犯防止に有効であることが示されている(Gannon & Polaschek, 2006, Aggression and Violent Behavior)。
3. 組織のガバナンス強化
スポーツや教育の現場では、児童に接する立場の人が、現実・仮想を問わず性的表現を扱うことを禁止する倫理規定を設けるべきである。
イギリスでは「性犯罪前歴確認制度(DBS)」が既に義務化されており、日本でも「日本版DBS」の導入が進んでいる。これをスポーツ団体や民間教育機関にも拡張すべきだ。
4.臨床的支援の充実化
児童ポルノやAI画像への依存には、孤立やストレス、性衝動制御の問題が背景にあることが多い。また、子どもに対する性衝動を抱えて、それをどうにかしたいと思っている人々への治療や支援の枠組みが日本社会にはまったくといっていいほど欠如している。
動機づけ面接や認知行動療法といったエビデンスに基づく介入を通じた治療や支援が、再発防止に有効とされる。
結び
今回の事件は、「AIで作ったから」「実在しないから」という言い訳が、もはや倫理的にも法的にも通用しないことを示した。子どもを性的対象として扱う行為は、実在・非実在を問わず、社会の規範を侵す。
AIが境界を曖昧にする時代だからこそ、「子どもを性的に描かない」「子どもを性的に消費しない」という直感的な倫理感覚を再び共有する必要がある。
日本社会がそれを再構築できるかどうかが、AI時代の成熟度を測る試金石となるだろう。
参考文献
- Ward T & Keenan T. (1999). A Journal of Research and Treatment, 11(3), 279–289.
- Seto MC et al. (2018). Sexual Abuse, 30(6), 643–675.
- Internet Watch Foundation. (2024). Annual Report 2024: AI-generated Child Sexual Abuse Material.
- Gannon TA & Polaschek DL (2006). Aggression and Violent Behavior, 11(3), 251–277.
- United Nations Committee on the Rights of the Child. (2015). Concluding observations: Japan.
- 37
- 8
- 0