全2160文字

 ここまで、メディア情報リテラシーの重要性を説明してきたが、リテラシーがあれば安泰とも言えない。東京大学大学院の鳥海不二夫氏は、「メディアリテラシーは大事だが、それを知っていてもほとんどの人は実行しない」と指摘する。毎日大量の情報に接している我々にとって、メディアリテラシーに基づく行動や批判的思考(クリティカルシンキング)を常に実践するのは不可能だ。

 法政大学社会学部メディア社会学科 教授でソーシャルメディアを研究する藤代裕之氏は、「個人の責任論に帰するのではなく、偽情報で汚染された生態系の問題として捉えるべきだ」と訴える(コラム参照)。

 確かに、全ての人々がメディア情報リテラシーを身に付け、実践するという前提に立つのには無理がある。世界中のほとんどの人が大手のSNSやクラウドサービスを使うこの時代、偽・誤情報を削除する仕組みはプラットフォーム側に持たせた方が、漏れはなくなり効率的だ(図1)。

偽・誤情報はプラットフォーム側で削除するのが理想
偽・誤情報はプラットフォーム側で削除するのが理想
図1 偽・誤情報をプラットフォーム側で排除する仕組みのイメージ。人力では限界があるので、自動検知する仕組みが必要
[画像のクリックで拡大表示]

 例えば、ファクトチェックによって偽物だと分かっている情報やフェイク画像を自動で検知し、必要に応じて削除したり、利用者に警告したりするシステムをプラットフォームに組み込む。AIでディープフェイクを検知するSYNTHETIQ VISIONを開発したNIIの越前功氏は、「プラットフォーム側でSYNTHETIQ VISIONを実装してくれるとよい。システムがディープフェイクであることを警告してくれれば、動画の真偽判定を個人に委ねずに済む」と期待する。

プラットフォーマーの責任

 かつては、プラットフォーム事業者(プラットフォーマー)は基盤システムを提供しているだけであって、そこで流通する情報に関しては責任を持たないという考え方もあった。新聞社や放送事業者はメディアとして重い責任を負っている。放送事業者を政治的公平性や公共性などの面で規制する法律もある。プラットフォーマーは自ら情報を発信していなくても、現実には多くの人々が新聞やテレビと同じメディアの一つとして、プラットフォーム上でニュースに触れている。

 EU(欧州連合)はデジタルサービス法(DSA)を制定し、巨大プラットフォーマーに対して、著作権侵害やヘイトスピーチといった違法コンテンツを削除する仕組みの整備などを求めている。プラットフォーマーには、日本における放送事業者と同じような責任が課されたと考えてよいだろう。

 社会の要請を受けて、プラットフォーマー各社は対策を進めている(図2)。そもそも、偽情報や有害コンテンツの投稿は、各社がコミュニティガイドラインなどで禁止し、発見した場合は削除している。グーグルやメタは、人の目だけでなく、AIも活用して有害コンテンツを自動的に削除している。Xの「コミュニティノート」のように、ユーザーが相互に情報を評価、補足する機能も、一定の成果を上げているようだ。

偽・誤情報を減らすための主な取り組み
偽・誤情報を減らすための主な取り組み
図2 大手プラットフォーマーの主な偽・誤情報対策をまとめた。なお、X(旧Twitter)については、総務省が求めたヒアリングシートと説明資料の提出がなく、同省は「透明性・アカウンタビリティ確保の取り組みについて後退があった」と評価している
[画像のクリックで拡大表示]