加害への「ゲートウェー」になる
――16万人が参加するコミュニティーなどを確認しましたが、18歳未満の性的画像などを規制する児童買春・児童ポルノ禁止法に抵触するとしか見られない、画像や動画もあるように思います。
これはSNSに限らず、ネット上で広がるデジタル性暴力全般にいえるところです。明らかに18歳未満だとわかる画像や動画には対応できるのですが、高校生ぐらいになると、画像や動画を見ただけでは成人なのか18歳未満なのか判断がつかないことが少なくありません。そもそも18歳であれば高校3年生でも成人です。そういうところで、なかなか通報が難しいのが現状です。
さらに、コミュニティーに流れている画像や動画には、同意によるポルノも含まれています。ポルノなのかデジタル性暴力の画像・動画なのか、判断が困難です。コミュニティー全体を閉鎖させることは、警察の権限では難しい現状があります。
――かといって、今の状況がいいとは思えません。
その通りです。私が最も懸念しているのは、加害への「ゲートウェー」となってしまうことです。最初は単純に「性的画像が見たい」と思いコミュニティーに参加した人が、コンテンツに感化され、そのうち自分で盗撮などを行うようになることです。
――打つ手はないのでしょうか。具体的な対策はありますか?
正直、本当に難しいのが率直なところです。
例えば、現実的ではないかもしれませんが、投稿する段階で、18歳以上であることを確認できない画像・動画は投稿できない仕組みにする、という方法が考えられます。
そのほかにも、自衛手段として、子どもの性的な自画撮り被害を防止するアプリ「コドマモ」の導入や、エスカレーターでの盗撮を防ぐために広範囲が映る特殊な鏡を設置するのも効果があると思います。ディープフェイクについていえば、法整備が喫緊の課題ですし、被害を防ぐための性教育も重要です。どれか一つではなく、様々なレイヤー(層)で総合的な対策を講じる必要があります。
(構成/AERA編集部・野村昌二)
こちらの記事もおすすめ 子どもへの性犯罪抑止、切り札は「日本版DBS」だが 学習塾など参加は任意「対象範囲」に課題も
















