放送内容
- AIの加工画像で被害!?
- ある日突然 自分の写真が…
- 性的な加工画像の被害 実態は?
- 市民の声で“法規制”
- 規制は? 対策は?
- “社会は変わるはず” 声上げた足立梨花さん
AIの加工画像で被害!?
桑子 真帆キャスター:
AIの負の側面として、今、浮かび上がってきているのがディープフェイクです。政治家が本来していない発言をしているように見せたり、災害時に偽画像を生成して、ばらまいたりする問題が出てきていますが、今日、取り上げるのはこちらです。自分がSNSに上げていた写真などが勝手に裸に加工され、送りつけられたり、拡散されたりする被害。今、水面下で広がっているというのです。
ある日突然 自分の写真が…
高校1年生のみほさん、15歳。2024年の春、SNSで1枚の画像が突然、匿名のアカウントから送りつけられたといいます。自分が裸で立っているように見える画像。全く身に覚えのないものでした。
みほさん(仮名) 「何これとしか出てこなくて、軽いパニック。とにかく気持ち悪いしか出てこなかった」
以前、インスタグラムで公開した動画が加工されたとみられます。あまりのショックに、すぐに画像を削除し、相手のアカウントをブロックした、みほさん。しかし、この対応で本当によかったのか。家族にも相談できず、今も時折、不安に襲われるといいます。
みほさん(仮名) 「すごい上手く加工されてたから、自分が『その写真は自分の体じゃない』と言い切っても、それを信じる人は少ないと思う。日本中に広まったら街を歩いただけでも(写真が私と)分かるわけで、生きづらくなる。誰かに相談する、写真を相手に削除してもらうとかしておけば、よかったなと思います。本当に冷静じゃなかったので、何も判断ができなかったです」
こうした被害は今、AIによる加工技術の進歩に伴い、加速度的に広がっています。3年前からSNS上をパトロールし、違法性の高い性的な画像や動画を通報する活動に取り組む、永守すみれさんです。
ひいらぎネット代表 永守すみれさん 「これは3人ぐらい女の子が並んでいる写真なんですが。全員ヌードにされてしまっていて、すごく自然な感じになっちゃっている」
最近、特に目立つのが、卒業アルバムの写真が悪用されるケース。誰かが卒業アルバムに載っている特定の女子生徒の写真を投稿すると…。わずかな時間で、その生徒の性的な画像や動画が作成され、共有されます。
永守すみれさん 「もう本当に身近なところで、年齢、関係なく、性的な搾取が私たちの社会の中で、新しい形で起きていることは絶対に知らなきゃいけない」
子どもの裸などの児童ポルノは、所持や製造、提供することなどが法律で禁じられています。しかし、顔は実在する子どもでも体が大人の裸に合成されていたり、AIで作られたものは児童ポルノではないとされ、これまで取り締まられたことはありません。
卒業アルバムを悪用しているのは、どんな人たちなのか。私たちは、写真を投稿した一人とやり取りすることにしました。
投稿されていたのは、一人の女子児童の写真。2024年の春の小学校の卒業アルバムからとったとみられ、児童の名前までさらされていました。投稿の翌日、女子児童の写真は別の投稿者によって性的な画像に加工され、1,500人以上が入るコミュニティーで閲覧できる状態になっていました。
私たちはまず、どうやって写真を入手したのか尋ねました。
取材班 “卒業アルバムってどうやって手に入れるんですか?”
投稿者 “同級生ですよ。好きな子だったので”
投稿者は女子児童の同級生。つまり、中学1年生だと名乗りました。さらに、高校1年生だという別の投稿者は、写真の加工を自分でも行っていると明かしました。
取材班 “加工を始めたきっかけは何ですか?”
高校1年生と名乗る投稿者 “普通の動画だと物足りない時があって”
取材班 “加工を始めて、どれくらいですか?”
高校1年生と名乗る投稿者 “小6から作っているので、4年くらいです”
取材班 “罪悪感はありませんか?”
高校1年生と名乗る投稿者 “別に何もなかったですね(笑)そうじゃないと作る人はいないと思います”
AIの急速な普及が進む社会の裏で、子どもたちの間に広がる「性的なディープフェイク」。この50代の教員は、4年前、複数の男子生徒からオンライン授業中のみずからの顔を裸の画像に加工され、クラスのグループラインに拡散されたといいます。
50代 教員 「ショックでした。たぶん悪ふざけの延長線上なんだろうなって、個人的には思うんですけど。私にも家族がいて、感情があると分かれば、こんな行動はできなかったと思うんですよね。やはり事の重大さを実感してもらいたい」
取材を進めると、AIによる加工を請け負うサイトやアプリが、数多く存在することが分かりました。その数、確認できただけで50以上。性的な加工をビジネス化し、収益を得る仕組みも作り上げられています。
取材班 「事業者が出てくるんですね」
事業者に関する情報として記載されていたのは、多くが海外の国々。日本で多く利用されているとみられるサイトの運営会社の所在地は、香港でした。実際に訪ねてみると…。
取材班 「われわれは日本のメディアです。この会社の責任者と話したい」
「いません。私たちは秘書業務を代行し、登記や会社の設立を手伝っています」
そこにあったのは会社の登記のみで、実体はなく、メールを送っても返信はありませんでした。
アメリカのセキュリティー団体の調査によると、性的なディープフェイクの広がりが深刻なのは、韓国、アメリカ、日本。このうち法規制がないのは日本だけです。世界の被害実態に詳しい専門家は、日本は特に対策が遅れていると警鐘を鳴らしています。
子どもを性暴力から守る団体の共同設立者 ボブ・シリングさん 「このような画像を目にするほど、子どもたちは『これでいい』と思ってしまう。それは間違っている。日本の人たちは声を上げなければならない。これは正しくないと、これはわれわれの子どもたちのことなんだと」
性的な加工画像の被害 実態は?
<スタジオトーク>
桑子 真帆キャスター: ここからは、ディープフェイクの実態に詳しい佐藤一郎さんと、SNS上の違法画像などを通報する活動をしている永守すみれさんとお伝えしていきます。まず、佐藤さんに伺いますけれど、日本は直接、規制する法律がないということでしたけど、今、取り締まりはどういう状況になっているのでしょうか?
スタジオゲスト 佐藤 一郎さん (国立情報学研究所 教授) ディープフェイクの実態に詳しい
佐藤さん: 日本の場合は、こうした性的ディープフェイクを第三者に提供した場合は名誉毀損罪が成立しうるんですけれども、それ以外の場合、例えば、作成をしたり、所持したり、また、それを視聴したりする場合は、直接的な規制がない状態になっています。こうなってしまった背景は、国は国民が持っている情報には、直接あまり関与しないほうがいいだろうという配慮がありました。ただ、こうした問題は出てきています。特にフェイク情報の問題がクローズアップされてからは、政府もいろいろ取り組みをしています。ただ、フェイクに関しては政府の取り組み、検討会も含めて、フェイクニュースにフォーカスを置いてきた。フェイクニュースはファクトチェックしてフェイクと分かれば、ある程度、問題は緩和されます。しかし、性的ディープフェイクは、それがフェイクだと分かっていても見る人は見ます。また、一度、拡散してしまって誰かが見たときに、それがフェイクと言われても、最初に見た印象はなかなか消えない。どうしても潜在意識に残ってしまうところがあります。そういう意味では、事後の救済が非常に難しい問題と言えます。
桑子: 永守さんは、3年前からネット上でパトロールされていますけれども、実際のところ、どう感じていますか?
スタジオゲスト 永守 すみれさん(ひいらぎネット 代表) SNS上の違法画像などを通報する活動を行う
永守さん: 被害者が本当に難しい状況に置かれていると感じています。先ほどおっしゃっていたように、名誉棄損に当たる可能性があるんですけれども、これは親告罪なので、被害者が自分で被害に気付いて問題だと言わなきゃいけないんですけれども、そもそも自分の被害画像を被害者が発見することが難しく、被害者が気付いたときには、かなり広まってしまっている状況があります。また、私たちが見てきたケースでは、合成と書かれてあるから名誉棄損には当たらないと警察に言われたケースもあります。多感な年頃なので、保護者になかなか相談しづらいという面もあります。
桑子: 気付いても、なかなか声を上げにくいということ。この3年間の変化は何か感じますか?
永守さん: 芸能人等だけじゃなくて、一般の子どもが被害に遭っていて、これがビジネスになっている。手軽に作れることで若年層が加害を起こしてしまっていて、性的尊厳が軽んじられていると感じます。
桑子: これはもう人のアイデンティティーの問題だと考えないといけないでしょうか?
永守さん: おっしゃるとおりで、誰を性的な対象とするか、どういった装いをするかというのは、個人の尊厳に強く関わる問題で、すべての人の問題だと感じています。
桑子: 性的なディープフェイクを直接、規制できない日本に対して、法律による規制に踏み切ったのが、韓国です。
市民の声で“法規制”
「改正法案が可決しました」
9月、韓国は、世界的にも異例の法案を可決しました。
性的ディープフェイクの所持や視聴、作成や拡散に対して、それぞれ懲役または罰金刑が科されることになったのです。
その道筋を作ってきたのは、若い女性たちを中心とする市民の活動です。端緒を切り開いたのは、20代のフリージャーナリストのウォンさん。活動を妨害されないよう、匿名で被害の実態を取材しています。
フリージャーナリスト ウォン・ウンジさん(仮名) 「(被害を訴えても)警察が動かないんです。それを見て、被害者たちのために手がかりを一緒に探さなければ。それを警察に提供して、積極的な捜査につなげなければと考えました」
ウォンさんが報じてきたのは、名門・ソウル大学の学生や卒業生など、数十人が被害を受けた事件です。2年にわたるSNSの潜入取材で犯人を特定。性的なディープフェイクを作成していた男たちの逮捕につなげました。
ウォン・ウンジさん(仮名) 「私たちの社会の被害者に対する態度が、あまりにも間違っていて。もし私が被害者になっても、同じように社会から無視されたら、とてもつらいと思ったんです。(犯人が捕まって)多くの人に感謝されました」
この事件をきっかけに、被害の広がりが次々と明らかに。20代のこの女性は、SNSで寄せられる各地の学校の被害情報を発信し続けました。
アカウント名 ギルティアーカイブさん 「(被害は)ほとんどの学校にありました。未成年者もすごく被害を受けていました。自宅の住所、学校、クラス番号や名前までさらされ、深刻な状況でした」
こうした情報を有志の中学生2人が地図にまとめ、被害の広がりを可視化。大きく報道され、反響を呼びました。
被害者を支援する弁護士のもとには、それまで埋もれていた多くの声が寄せられるようになりました。
被害者の支援をする キム・ミナ弁護士 「報道された内容を見て、多くの被害者から『私もそのようなメッセージ(画像)をもらった』『そのときは怖くて訴えられなかったけど、いまからでも訴えたい』という連絡が何度もありました」
さらに実態解明が進み、加害者の7割が10代だと報じられると、子どもたちを被害者にも加害者にもしてはならないと、対応を求める声が強まりました。
韓国政府は法改正にあわせ、相談窓口を強化するなどの対策を打ち出しています。
韓国 女性家族省 デジタル性犯罪防止課長 ノ・ヒョンソさん 「人々や事業者がすぐ通報できるように相談窓口を運営する予定です。そうなれば全国民が監視者となり、ディープフェイク性犯罪の根絶につながると期待しています」
海外の動向を注視してきた日本の弁護士やNPOなどのグループでは、まずは子どもの性的なディープフェイクを規制することを目指して議論を始めています。
「現状の法律では対応できない。イコール対応しないというふうになってしまって、子どもたちが泣き寝入りしている」
チャイルド・ファンド・ジャパン 武田勝彦さん 「これから、たぶん実害を受けるような子どもたちが増えていく。それがどんどん表に出てくる。たぶん爆発的に出てくるんじゃないか」
新たな法律を求める提言書を作り、2025年、国に働きかける予定です。
規制は? 対策は?
<スタジオトーク>
桑子 真帆キャスター: 今の韓国と同様に、AIによる性的加工が社会問題となっているアメリカでは、29の州に法律があって、作成や拡散などが規制されています。こうした中で、佐藤さん、日本の法律はどうなっていけばいいと考えていますか?
佐藤さん: 日本も性的ディープフェイクの被害が大きくなってくれば、何らかの法律の措置が必要になってくると思います。その中で、韓国の法律は参考になって、例えば、作成・拡散は法律で作るのは、一つの考え方だと思います。一方、所持・視聴は、これもある種、効果はあるんですけれども、これを捜査をするときにいろんな情報を捜査当局が調べて、ある種の検閲になるところがありますので、そこもうまくバランスを取りながら制度設計をしていく必要があるのかなと思います。
桑子: 永守さんはどうお考えですか?
永守さん: 韓国では、被害者支援について国や自治体が責任を持つ形になっています。日本でも公的な仕組みが必要ではないかと感じています。
桑子: 被害に遭ったあとの支援の在り方ということですね。では、このディープフェイクをなくすために、AIによって対抗しようという研究をご覧ください。
越前功教授が開発しているのは、画像を加工されないようにするための技術です。
国立情報学研究所 越前功教授 「この服の部分に微小なノイズを乗せておく。そうすると、AIが切り出そうとしても切り出せない。AIに対して(写真を)見えなくする、ガードするような仕組みです。AIの分析をバリアする。フェイクが拡散しないような環境の一助になるんじゃないかと開発を続けております」
桑子: 佐藤さんは、この技術的な対策はどうあるべきだと思いますか?
佐藤さん: 今、ディープフェイクの技術が非常によくなっていて、ほぼ人間には判別できない段階に来ています。なので、AIなど技術を使って、フェイクかそうでないかを判別するしかない状態です。ただ、フェイクの技術も進歩しているので、判別技術とフェイクの技術がイタチごっこになっているのが実情だと思います。そういうフェイクの技術が問題であれば、その技術そのものを規制すればいいのではないかという考え方もあると思うんですけれども、このディープフェイクに使われている技術はテレビや映画の制作などにも使われているので、技術そのものの規制が難しい。そうすると、ディープフェイクの情報をやり取りするプラットフォーム側に対処をお願いしないといけないのが現状だと思います。
桑子: このまま対策が進まないと、画像を投稿すること自体をためらって、SNSの本来の楽しみ方もできなくなってしまう気もするわけですけれども、こうした中で、SNSとかAIとの向き合い方はどうあるべきか。佐藤さん、いかがでしょう?
佐藤さん: ある意味で技術の問題でもあるんですけれども、使う側の問題です。そうすると、情報リテラシー教育で解決することになるんですけれども、今の日本の情報リテラシー教育は、子どもたちが犯罪の被害に遭う立場となっています。なので、被害に遭わないための情報リテラシーなんです。でも、今は生成AIやディープフェイクという技術が誰でも使える。そうすると、子どもたちが加害者になることも多くなっています。情報リテラシー教育の中で技術を使うことによる影響や責任、さらに何をすると犯罪になってしまうのかということまで具体的に教えていく必要があると思います。
桑子: 永守さんは、この「向き合い方」についてはどう考えますか?
永守さん: SNSに画像を上げなければいいという意見もあるんですけれども、被害に使われてしまったのは卒業アルバムなど、自分でアップしているものに限らないので、決してSNSにアップした人が悪いという風潮にはなってほしくないと感じています。あと、本当に簡単に被害画像を作ることができてしまう。一瞬で作れてしまうんですけれども、被害者が受ける心理的な負担は長く続いてしまうものなので、こうした加害行為を気軽にすることがないようになってほしいと思っています。AI技術は、私たち大人にとっても未知の技術だと思っていて、どういったルールが必要なのか、モラルというものを、私たち自身が当事者となって、しっかり考えていく必要があるのではないかと感じています。
桑子: もし自分が同じことをされたらと考えると、どうでしょうか。手軽だからこそ、事の重大さに気付きづらいかもしれませんけれども、このAIに限らず、技術の進歩には光と影があるわけで、その影で苦しんでいる人たちに目を向け続ける社会でなければならないと感じます。NHKでは、今後もこの問題について取材をしていきます。勝手に写真を性的に加工されたなど、ぜひ皆さんの声をお寄せください。
2024年、現状に一石を投じようと声を上げた人がいます。
“社会は変わるはず” 声上げた足立梨花さん
俳優の足立梨花さんです。2024年10月、自身の写真が加工され、SNS上で拡散される被害に遭い、抗議の声を上げました。
俳優 足立梨花さん 「あまりにも、そういうことをする人が増えたなと。昔は、画像だし、加工だしなってわかりやすかったのが、初めて見た人が勘違いしてしまうようなリアルさを持ってしまったところが、やっぱり声を上げなきゃいけないなと」
この投稿に対して、多くの励ましや共感の声が寄せられました。被害者の痛みを誰もが想像できれば、社会は変われるはずだと考えています。
足立梨花さん 「Xで私が発信したことによって、はっと気付いてくださった方もいたんですよ、中には。皆さんが『これは嫌だよね』と言ってくれたのも、うれしかったし。守ってくれる人も、たくさんいたんです。だから、そういう人がひとりでも多く増えていってくれると、うれしいなって」