ここまで、メディア情報リテラシーの重要性を説明してきたが、リテラシーがあれば安泰とも言えない。東京大学大学院の鳥海不二夫氏は、「メディアリテラシーは大事だが、それを知っていてもほとんどの人は実行しない」と指摘する。毎日大量の情報に接している我々にとって、メディアリテラシーに基づく行動や批判的思考(クリティカルシンキング)を常に実践するのは不可能だ。
法政大学社会学部メディア社会学科 教授でソーシャルメディアを研究する藤代裕之氏は、「個人の責任論に帰するのではなく、偽情報で汚染された生態系の問題として捉えるべきだ」と訴える(コラム参照)。
確かに、全ての人々がメディア情報リテラシーを身に付け、実践するという前提に立つのには無理がある。世界中のほとんどの人が大手のSNSやクラウドサービスを使うこの時代、偽・誤情報を削除する仕組みはプラットフォーム側に持たせた方が、漏れはなくなり効率的だ(図1)。
例えば、ファクトチェックによって偽物だと分かっている情報やフェイク画像を自動で検知し、必要に応じて削除したり、利用者に警告したりするシステムをプラットフォームに組み込む。AIでディープフェイクを検知するSYNTHETIQ VISIONを開発したNIIの越前功氏は、「プラットフォーム側でSYNTHETIQ VISIONを実装してくれるとよい。システムがディープフェイクであることを警告してくれれば、動画の真偽判定を個人に委ねずに済む」と期待する。
プラットフォーマーの責任
かつては、プラットフォーム事業者(プラットフォーマー)は基盤システムを提供しているだけであって、そこで流通する情報に関しては責任を持たないという考え方もあった。新聞社や放送事業者はメディアとして重い責任を負っている。放送事業者を政治的公平性や公共性などの面で規制する法律もある。プラットフォーマーは自ら情報を発信していなくても、現実には多くの人々が新聞やテレビと同じメディアの一つとして、プラットフォーム上でニュースに触れている。
EU(欧州連合)はデジタルサービス法(DSA)を制定し、巨大プラットフォーマーに対して、著作権侵害やヘイトスピーチといった違法コンテンツを削除する仕組みの整備などを求めている。プラットフォーマーには、日本における放送事業者と同じような責任が課されたと考えてよいだろう。
社会の要請を受けて、プラットフォーマー各社は対策を進めている(図2)。そもそも、偽情報や有害コンテンツの投稿は、各社がコミュニティガイドラインなどで禁止し、発見した場合は削除している。グーグルやメタは、人の目だけでなく、AIも活用して有害コンテンツを自動的に削除している。Xの「コミュニティノート」のように、ユーザーが相互に情報を評価、補足する機能も、一定の成果を上げているようだ。