WEB特集
震災ビッグデータ報告【2】リアルタイムにデータをつかめ
11月2日 20時40分
国内外の研究者らが参加した「東日本大震災ビッグデータワークショップ」では、リアルタイムでツイッターの投稿内容やエリアごとの人口動態などを把握し、適切な支援や避難誘導、そしてマスメディアの報道にも活用する報告がおこなわれた。
一刻を争う災害時に、迅速に情報をつかみ的確に伝えるためには、何が求められているのか。
(ネット報道部デスク 足立義則)
ビッグデータを“可視化”する
(制作:首都大学東京 渡邉英徳准教授)
この動画は、震災後にどの地域でどのようなツイートが投稿されたかを位置情報をもとに地図に分布したもので、個々のツイート内容を確認することもできる。
(制作:東京大学大学院 早野龍五教授/首都大学東京 渡邉英徳准教授)
この画像はGPS機能付きの携帯電話やSPEEDI(放射性物質の影響予測システム)などのデータをもとに、去年の東京電力福島第一原発事故後の放射性ヨウ素の分布や住民の被ばく状況を分析したものだ。
大量の数値データは、表やグラフにするだけでは一般にはわかりにくいが、このように可視化することで、状況をより多くの人に的確に伝えることができる。
ビッグデータを可視化して避難誘導などに活用しようとする取り組みが「渋谷プロジェクト」として報告された。
プロジェクトではツイートやGPSの位置情報をもとに、震災発生直後の渋谷駅周辺の「混雑度」を分析した。
(渋谷プロジェクトの発表より)
250メートル四方ごとに混雑の違いを示した地図からは、帰宅困難になった多くの人が駅前にあふれていた当時の状況がうかがえる。
渋谷駅周辺でのツイートを見ると、始めは安否に関する内容が多かったのが、夜にかけて自分が家に帰ることができるかどうかや、一時的な避難所を探す内容が増えていったことも分かる。
プロジェクトでは、首都直下地震など今後危惧される災害時に、リアルタイムでこうした帰宅困難者のデータをつかみ、どこが混雑しているか、群衆がこれからどこに向かおうとしているかなどを分析して行政に提供することで、安全な避難誘導や適切な避難場所の開設などに役立てたいとしている。
「渋谷プロジェクト」代表をつとめる一方、「内閣官房政府CIO補佐官」の顔も持つ平本健二氏は、去年の震災時にもツイッターで支援などを求める投稿を試行的に分析した経験があり、「混雑やツイッターの発信内容に関する情報は精度の課題はあるが、行政などの既存の災害情報を補完する参考情報として活用していきたい」と話している。
リアルタイム活用の課題
行政などとの連携に関して報告会で指摘されたのが、「PDF発表資料」の問題だ。
去年の震災後、中央省庁や自治体、それに東京電力などがインターネットで発表した資料には、印刷した紙をPDF形式(画像形式)にした資料が目に付いた。
例えば各地の放射線量などの資料がPDF形式で提供されたため、コンピューターでデータを分析しようとしても認識できず、わざわざスキャナーで取り込んで認識したり、手で入力しなおしたりした例もあったという。
「行政機関などの発表資料はテキストやCSV形式のファイルで提供すべき」という意見が研究者から出された。
ビッグデータをリアルタイムで活用するための課題としては、今回のように大量のツイートや人口動態などのデータを詳細に分析できる状況が、次の災害時にも実現するのかどうかや、根本的に通信や電力インフラへの懸念もある。
研究者らの知見を災害現場で確実に生かすために、インフラなどのハードとソフトの連携を総合的に進めていく必要がある。
マスメディアの取り組みは
今回のワークショップでは、データの分析にNHKの研究者らも参加して、ビッグデータを災害報道に活用する取り組みを発表した。
この動画はそのひとつ「スカイマップによる避難情報伝達」で、ヘリコプターによる空撮映像に地名や避難所の場所、リアルタイムの人口動態や津波災害の予測地図などを重ね合わせ、被災地の現状をより詳しく伝えることを目指している。
このほかにも、震災後の放送内容を分析して、まだ状況を伝えられていない「取材空白地域」を示すシステムや、大量のツイートから震災に関する情報を抽出して分類し、取材活動や放送に活用するシステムについても研究を進めている。
ワークショップでは震災後のテレビや新聞報道を分析したうえで、
「ツイッターで募金に関する質問が多かったころ、マスメディアでは報道が遅れていた」
「重複した情報が多く、テレビ各局ごとに情報を分担してはどうか」
といった指摘や提言もおこなわれた。
私自身も日頃の取材やニュース制作の中で実感している、マスメディアとネットメディア、それぞれのメリット、デメリットを意識して相互に補いながら、今後も必要な情報を的確に伝えるための取り組みを続けていきたい。