講演レポート:NHKスペシャル「震災ビッグデータ」の阿部博史氏が語る!ビッグデータから見えた、日本の過去・現在・未来||Prowise Business Forum in Tokyo 第78回|日立ソリューションズ

Hitachi

Select Country/RegionJapan

Hitachi Group Global Network

Americas

Select Country/Region :

Asia

Select Country/Region :

Europe

Select Country/Region :

Middle East and Africa

Select Country/Region :

Oceania

Select Country/Region :

Close

株式会社 日立ソリューションズ

Prowise Business Forum in Tokyo 第78回

NHKスペシャル「震災ビッグデータ」の阿部博史氏が語る!
ビッグデータから見えた、日本の過去・現在・未来

 ビッグデータは、もはや「活用できるのか」ではなく、「何のために、いつまでに、どのように活用するか」の状況です。500人の研究者が東日本大震災の実像に迫る壮大なチャレンジは、知見の導出のみならず、データ活用の輪となり広がっていきました。尊い犠牲の上にある東日本大震災の膨大な情報「震災ビッグデータ」には、未来へこの災いの記録をつなぐ私たちへのメッセージが残されているのではないでしょうか。
 本フォーラムでは、基調講演にNHKスペシャル「震災ビッグデータ」制作班ディレクターの阿部博史氏をお招きし、震災ビッグデータから得られた震災の全貌と最新のビッグデータ活用事例についてご講演いただきました。
 また、特別講演として株式会社日立製作所の石川太一氏より、PDCAプロセスの改善に取り組んだプロジェクト事例を元に、個客の離反防止と客単価向上を実現したビッグデータ利活用手法を解説しました。そして日立ソリューションズセッションでは、大量のマシンデータの活用方法や活用の背景を、国内事例などを交えてご紹介しました。

日立ソリューションズのビッグデータ関連の商品はこちらからご覧になれます。

開催概要

日時 2014年8月19日(火) 14:00~16:30 (13:30 受付開始)
会場 東京都港区港南2-18-1
JR品川イーストビル20F セミナーホール
主催 株式会社日立ソリューションズ
協賛 株式会社日立製作所

【基調講演】
震災ビッグデータ ~いのちの記録を未来へ~

阿部 博史 氏
日本放送協会
報道局社会番組部
ディレクター 阿部 博史 氏

講師プロフィール

1978 年、愛知県生まれ。名古屋大学大学院 理学研究科 素粒子宇宙物理学専攻修了。宇宙科学研究所(現JAXA)やインドのTATA基礎科学研究所と共同で、天文衛星の検出器の開発や赤外線気球望遠鏡の打ち上げを行う。2004年、NHK入局。小澤征爾、瀬戸内寂聴、村上龍などの文化人のドキュメンタリーやヒッグス粒子、遺伝子治療など科学・医療の最前線を伝えてきた。東日本大震災発生時は「ニュースウォッチ9」のディレクターとして緊急報道を行ない、岩手県、宮城県、福島県のすべての自治体を取材。「NHKスペシャル 震災ビッグデータ」や「クローズアップ現代」など東日本大震災や原発事故をテーマとする番組を制作している。2013年3月、9月、2014年3月に放送した内容をまとめた書籍「震災ビッグデータ」を2014年5月に発売。

 東日本大震災を契機に、携帯電話やカーナビなどからの膨大な災害情報(震災ビッグデータ)を分析して震災の全貌を明らかにする動きが広がっている。基調講演では、NHKスペシャル「震災ビッグデータ」の番組制作の舞台裏と具体的な分析事例について紹介した。

どれだけ頑張っても新たな天災はやってくる

 東日本大震災の3年後の2013年3月3日から放送されたNHKスペシャル「震災ビッグデータ」は、浸水域にいた数十万人の行動の軌跡や震災1週間でつぶやかれた1億8千万のツイートなどから被災者一人ひとりの命を見つめた番組作りが大きな話題となった。
 番組制作にたずさわった阿部氏は、「感動話ばかりを伝えることがNHKとして正しいのかどうか疑問に感じ、徹底的にデータで見るという取り組みを3回に分けて放送した」とその経緯を説明する。

 1995年の阪神淡路大震災は約5,000人。2011年の東日本大震災は約650人。これは、地震発生時の家屋などの倒壊が原因で亡くなった人達の数である。16年間で建物の耐震性などを見直した結果、直接の犠牲者は減少したものの、東日本大震災では津波という別の災害によって約1万5,000人もの人々が亡くなっている。

「私たちがどれだけ頑張っても、新たな天災によって尊い命が奪われる可能性があることを忘れてはならない」と阿部氏は強調する。

 そのための武器として、NHKはさまざまなデータ収集に取り組んだ。携帯電話や乗用車のカーナビの情報、タクシー会社や運送会社から提供される情報、支援物資の物流情報、各企業の情報のほか、自衛隊からは延べ1,000万人分の出動記録、Twitter社からは1億7,900万ツイート、新聞社など複数のメディアからの報道記録などを活用した。

地震発生後に流れるツイートを整理することでさまざまな物語が見えてくる

 NHKは、番組立ち上げ時に自治体や企業、大学、団体などと契約し、データを重ね合わせて知見を導出するためのマッシュアップパートナーとして慎重にデータ提供を受ける一方で、「NHKデジタルアース」というシステムを開発。震災前後の人の分布、震災直後の避難状況などのビッグデータを地域や時間で分析・可視化することで、多くの情報を引き出せるようになったという。

「ひとつの事象が他の事象に影響を与える相関でデータの関連性を語ることの因果関係に私は疑問を持っていた。そのため震災ビッグデータでは、ひとつのデータがあればその周りのデータを徹底的に見ることを行った。映像、音声、警察や消防の活動記録、防災の専門家の分析、統計的な数字の意味、民間企業が持っているデータなどをマッシュアップすればさらに詳しく見ることができると思った」

 NHKが開発した「Tweets Deep Survey」というシステムでは、東日本大震災発生後に流れていたつぶやきを分類・整理し、当時何が起こっていたのかを探る試みを行った。東日本大震災では、画像や住所などを詳細に情報発信していた災害関連ツイートは全体の3.6%に達し、1日あたり約3,000件を抽出した。
 その内容によると、地震発生直後は地震への反応や避難呼びかけが多数を占めたが、1時間後は連絡手段や無事を心配する不安感が多くなり、2時間後は鉄道運休や帰宅困難などの話題が急増。代替帰宅手段を議論し始めた。3時間後には徒歩帰宅や休憩所などの情報が中心となり、4時間が経過する頃には避難所や寒さ、トイレなどを心配するつぶやきが増えていったという。

「震災ビッグデータは人の密集のデータだけで判断するのではなく、こうした情報も検証することで、さまざまな物語が見えてくる」

震災ビッグデータが生み出す知見を伝えることが今の時代にできる防災

 次に、阿部氏は交通情報について解説した。まず、警視庁から提供される幹線道路上の車両感知器1万5,000機からの生データをリアルタイムに表示した後に、タクシー会社からの運航データに切替えてタクシーが幹線道路以外の細かい裏通りに多く走っている状況を説明。また、一般車のカーナビからのデータでは、都心よりも地方に広く分布していることを紹介した。これらに加え、携帯電話の位置情報からの渋滞情報などを全て重ね合わせることで、道路上を走行する車両の約95%まで把握することができたという。

 その方法で2011年3月11日の道路状況も再現。被災地では激しい渋滞が発生して多くの犠牲者が出た。現在、石巻市と東北大学が協力し、こうしたビッグデータを分析して震災と渋滞に強い街作りを研究しているという。
 また、阪神淡路大震災での出火件数は87件となったが、消防関係による平時の消火能力はわずか3件だったため、約7,000棟の家屋が焼失した。地震後に渋滞に巻き込まれた場合は、車を捨て徒歩で避難した方が生き残る確立が高いという。さらに、地震発生時の車の車速の変化を分析することで、震度5弱までは平常運転が可能だが、震度5強では都市機能が完全にマヒすることがわかったという。

 阿部氏は、「震災ビッグデータが生み出す知見をできる限り伝えることで、多くの人の命を救うこと。それが今の時代にできる防災なのかもしれない」と話す。

ISO解析で見えてくる津波浸水域での人の行動

 続いて、東日本大震災時の津波被害に関する分析を行った。青森県から千葉県にわたる約1,000キロメートルの津波浸水域と各地域の人口データを重ね合わせることで、2011年3月11日14時46分現在で60万人以上が浸水域にいた計算になるという。その時人がどのように避難したかは、浸水域に入った人/留まった人/避難した人などをISO解析(In-Stay-Out Analytics)でトレースが可能だ。被災地全域の平均では、入った人が41%、留まった人は25%、避難した人は34%だったという。

「4割以上の人が浸水域に入り込んでしまった事実は大きな驚きだった」と阿部氏は述べる。
 中でも、宮城県名取市では58%の人が地震後に入り込んでしまい、岩手県陸前高田市では78%がその場に留まった。一方、宮城県気仙沼市では48%の人が地震後に避難した実態が明らかになっている。しかし、それが渋滞を生み、多くの人が津波にのまれる結果となった。

 NHKの開発した「スカイマップ」というシステムでは、ヘリコプターからの中継映像に、地図情報、緯度・経度情報、カメラの方向・ズーム情報、人口データを重ね合わせることで、浸水予想域にいる人の分布から、被害の予測がリアルタイムに可能になる。そのため、どの方向に避難すれば最適なのかを伝え、救援を待つ人がどこに存在するかを迅速に把握することも不可能ではないという。
 さらに阿部氏は、共助力について説明した。NHKは東京大学との共同開発で、自分が被害に遭った際に周囲の人々が何人助けに来てくれるのかを危険度として定量化している。それが「共助力マップ」だ。パーソントリップデータや住宅情報などを重ね合わせることで、例えば、万一の場合、自分の周囲に住む40歳代の男性や60歳代の男性、30歳代の女性が救助に来てくれる可能性があり、その人達の力の数値を計算する。日本には建物が約6,000万棟存在し、24時間/365日、どの時間に、誰が、どこに、どれだけいるのか全ての組み合わせを計算することで、助け合う力をNHKデジタルアースで可視化する。

 例として東京都世田谷区を見ると、早朝と夜中では人口が多く共助力は高いものの、昼間は人口が大幅に減少し、共助力が6分の1にまで低下することが分かった。そこで世田谷区若林地区では地元の国士舘大学と協定を結び、災害時には学生が救助に駆け付けてもらえるようにしているという。

震災復興の実態把握にも活用される震災ビッグデータ

 次に阿部氏は、復興について言及する。NHKは、帝国データバンクから75万件の企業の2010年~2013年の4年間における33項目の企業情報や800万件の取引データの提供を受け、復興につながる道を探った。

 被災3県(岩手、宮城、福島)の被害甚大地域を設定し、震災前から震災後に企業がどのように移転したかを可視化した。南三陸では、近くの高台に移転する企業と隣の市に移転する企業とに分かれ、それまで保ってきた企業間ネットワークが分離したことで復興を妨げる結果になったという。
 阿部氏は、「企業の取引先との関係性をネットワークとして可視化することで、適切な復興支援がこうしたデータから導き出せるかもしれない」と期待する。

 震災ビッグデータの番組では、企業ネットワークにおける企業間の関係性を定量化するために、中心となる企業に関係するグループの大きさをZ値(ハブ度)、隣のグループとのつながりの強さをP値(コネクター度)として数値化して紹介した。これは、雑誌ネイチャーに掲載された、細胞の代謝ネットワーク構造を解明するためのクラスタリング手法を参考にしたという。このハブ・コネクター企業を地域別分布で可視化すると、被災地以外にも復興のハブとなる企業が分布していることが分かった。内陸の弁当製造企業が沿岸部の企業から水産物を仕入れ、東京のデパートに卸しているといったケースだ。

「沿岸部だけではなく、内陸部の企業に対しても復興支援をすることが必要な場合もある」

 また、東日本大震災から3年半を経過して、被災地の住民がどこに住居を移しているのかも見えてくると阿部氏はいう。行政では、住民票の移動などから震災後に約2割の人が移転していると考えていたが、震災ビッグデータでは4割以上の人が移転し、現在も戻っていないことが分かった。そこで、NHKは人の移動距離を可視化する「活発度マップ」を作り、復興加速地域と復興停滞地域を明確化して実状を把握しようとしている。
 番組放送後、震災ビッグデータは、IT総合戦略本部・防災減災分科会や中小企業庁、大学、自動車メーカー、携帯電話キャリアなどで活用が進んでいるという。

 最後に阿部氏は、「震災ビッグデータは単一データで語ることは困難で、分析結果の事実確認をあきらめないことが重要である。また、"いのち"に関わるデータでもあり、精度やリアルタイム性、伝導力、デザインのあらゆる面で最高レベルのものが求められる。ぜひ、みなさんの企業のビッグデータも防災に役立ててほしい」と訴え、基調講演を終了した。

【日立ソリューションズセッション】
社会にイノベーションを起こすための大量マシンデータ活用 ~製造業以外にも活用が広がるM2M~

町田 浩三

株式会社日立ソリューションズ
プロダクトマーケティング本部 マーケティング推進部
技師 町田 浩三

 日立ソリューションズセッションでは、「IoT(Internet of Things)」や「M2M(Machine to Machine)」と呼ばれるマシンデータの活用の背景と国内事例などを紹介した。

多くの業種で利用され始めた大量マシンデータ活用

 冒頭に町田は、ビッグデータの特徴について解説するとともに、M2MとIoTに関する定義と説明を行った。M2Mとは、機械と機械が通信ネットワークを介して互いに情報をやり取りすることにより自律的に高度な制御や動作を行うこと。コンピュータや通信装置などの情報機器以外の、自動車やエレベータなどの機械にセンサーや処理装置、通信装置などを組み込んで、データ収集や遠隔監視・制御などを行うことを意味する。
 大量データの活用から広がるビッグデータの市場規模は、2014年に0.3兆円だったものが2020年には1.1兆円になると予測され、センサーデータの活用から広がるM2Mの市場規模も、2014年は0.3兆円だが2018年には1.2兆円に成長するといわれる。

「M2Mも大量のマシンを扱うため大量のデータが生成され、必然的にビッグデータの市場と重なる部分が多い」と町田は語る。

 また、IoTとは"モノのインターネット"と訳され、コンピュータなどの情報・通信機器だけではなく世の中に存在するさまざまなモノに通信機能を持たせ、インターネットで相互に通信することで自動認識や自動制御、遠隔計測などを行う概念だ。
 M2Mは必ずしもヒトの対応を必要としないモノ同士の通信基盤で、スマートグリッドや健康/医療、モビリティなどの分野で先行的に標準化が進められ、ユビキタス社会の基盤を創成してきたが、IoTはヒトを含む多数のモノの状況を瞬時に把握することにより、それらの情報の活用と組み合わせによって新しいシステムやサービスが実現するとされる。あらゆるモノがインターネットにつながることが当たり前になった時代に生まれた言葉だ。
「IoTはM2Mよりも幅広い概念・理念といえる」

 また、IoTやM2Mは、従来の産業系のみならず、設備機械の稼働データや、鉄道・車両の移動データ、気象データ、電気・ガスなどのエネルギー管理情報、MRIやリハビリ機器などの医療機器のデータ、ATMの取引データなど、多くの業種で利用され始めている。
 マシンデータには、温度、湿度、圧力、加速度、移動量、消費電力、回転数などのセンサーデータに加え、アクセスログ、購買データ、会員属性、取引データなどの情報システムや基幹システムのデータなども含まれる。
 これらのマシンデータは、自動車(カーナビ、エンジン、ワイパー、車載カメラなど)、家電(エアコン、冷蔵庫など)、ウェラブルデバイス、エレベータ、医療機器(医療ベッド、MRIなど)、といった機械のほか、Webサーバ、DBサーバ、プロキシサーバ、ファイアウォールなどの情報システム・基幹システムから生成され、その場所もサーバルームやオフィス、病室、移動体(人、自動車、交通機関)、工事現場、ショッピングモール、工場、海・山・ダムなどに広く存在するようになった。

最適な保守サービスの提供と故障予知による的確なアスターサービスを実現

 次に町田は、大量マシンデータを活用した4つの事例を紹介した。1番目は、日立製作所が行った植物工場の生産支援の活用例。農業の就業者人口の減少や農産品の国際競争激化などの要因により、生産者が加工・流通に関わり需用者(スーパーなど)と直接つながる六次産業化や、地域振興事業としての工業化された農業を目指す中で、植物工場に対する期待が高まっているという。
 そこで取り組んだのが植物工場生産支援クラウドサービスだ。これは、農場の日射量や温度・湿度、喚起窓、pH/EC(土壌管理)などのデータをデータセンターに集め、タブレット端末を活用した24時間/365日のリモート管理に加え、見える化とビッグデータ分析による生産管理や経営視点による意思決定を可能にするもの。

 日立製作所は2013年4月に植物工場の販売や野菜生産・販売、食品加工を手掛ける農業ベンダーのグランパに1億円を出資し、グランパが持つ営農のノウハウとドーム型植物工場(グランパドーム)を活用した農業の六次産業化を支援する事業を推進している。
独自の構造と制御方式を持ったグランパドームの活用によって、水耕栽培の無農薬野菜を毎日収穫できるようになり、従来施設の約2倍の生産性を実現しているという。

 2番目の事例は、運搬機器(エレベータやエスカレータなど)の保守を行う企業の業務効率化だ。同社は全国12万台の運搬機器の運航状況を24時間/365日遠隔監視し、顧客(ビルオーナー)ごとに最適化した保守サービスを提供することで、1年に200万件、約20年分の蓄積データを保有している。しかし、顧客の利用状況に合わせた最適なサービスの提供や、複数のデータベースに蓄積したデータの抽出・加工が負担となり、全ての機器の分析に1週間以上の時間を費やしているのが課題だったという。
 そこで、運搬機器のボタンの押下回数やモーターの回転数・駆動時間、ドアの開閉回数、照明の点灯時間などの情報を各種センサーで収集し、データセンターで可視化する分析システムを構築。それにより、場所・地域、季節による利用の違いや傾向を明確化してビルオーナーごとに最適化した保守サービスを提供することが可能になったほか、部品の使用回数から導き出した故障予知による的確なアフターサービスを実現した。また、前日の分析結果が翌日にはイントラで確認でき、ビジネススピードを加速した。

 3番目は、タクシーの稼働データから天気状況を把握する活用例。タクシーの車両から、ワイパーの動作情報や位置情報(GPS)を収集することで、特定地域の降雨状況を把握。これは、ツイッターなどのつぶやき情報を分析しなくても、雨が降ったらワイパーを動かすという運転中の自然な動作からデータを入手できる上に、日本語解析などの特別な技術も不要で、ゲリラ豪雨などの検知や、タクシー利用の瞬間的需要を予測することにも応用できる。

 4番目は、医療分野向けの活用例。フィットネスマシンや健康管理機器、バイタルチェックマシンなどからの血圧、心拍数、体温、体重などのデータを収集することで、トレーナーや家族、主治医などが対象者のケアを行いやすくする活用方法だ。健康カウンセリングや見守りサービス、病気の予兆検知などに応用できるという。

「これらの事例は、企業の売上向上やサービスの改善が直接の目的であるが、バリューチェーンの中で考えると、私たち自身を含む一般の消費者の価値を結果的に向上させていることがわかる」

ICTエンジニアとデータサイエンティストの両体制でデータ分析を支援

 次に、町田は、大量マシンデータ活用時の課題と解決策について説明した。マシンデータには、基幹データ、ログデータ、センサーデータ、ソーシャルメディアデータなどが存在するが、それらは入手しやすさ、加工のしやすさ、計算量の多さが大きく異なり、それぞれに適切なソリューションが必要になるという。
 日立ソリューションズでは、基幹データやログデータなど比較的計算量の少ないデータには「Splunk Enterprise」(以下、Splunk)を活用し、計算量が増えた場合は「HADB」と「Hadoop」で補完するほか、センサーデータ利用時には「M2M組込み基盤スイーツ」の組み合わせ、ソーシャルメディアデータ利用時には「Hadoop」の組み合わせを推奨している。

  Splunkは大量のマシンデータを素早く簡単に、価値のある情報に変換する分析ソフトウェアだが、データベースの設計といった手間のかかる事前準備が不要で、無償版が利用でき、データ量や利用人数に応じた柔軟なスケールアップが可能など、使いやすい点が特徴だ。

 また、M2M組込み基盤スイーツとは、センサーデータを収集する際に必要となる機器とサーバ間のデータ通信制御のためのフレームワークのことで、データ量が軽量な通信プロトコル(TFTP)で通信料を削減し、データの再送制御により確実なデータ受け渡しを可能にするほか、センサーデータを機器側に組込んでデータベースによる長期保管を実現する。
「ビッグデータやマシンデータが私たちの安全、安心、快適、健康なくらしを支えている。もはやビッグデータは、"何のために、いつまでに、どのように活用するか"を実現するフェーズに来ているが、技術の進歩により大量マシンデータが低コストで収集できる仕組みが揃った」と語る町田は、日立ソリューションズには各業界に特化したICTエンジニアと、研究開発・分析・活用支援に精通したデータサイエンティストの2つの体制によりデータ分析を強力に支援すると紹介した。

【特別講演】
成長するためのPDCAを、ビッグデータで加速させる ~ビッグデータで個客の心を掴む、先進プロジェクト事例~

株式会社日立製作所
ソフトウェア開発本部 ビッグデータソリューション部
主任技師 石川 太一 氏

石川 太一 氏

 特別講演では、企業がPDCAサイクルのための仮説・施策立案プロセスと効果検証プロセスの改善に取り組んだプロジェクト事例を元に、個客の心を掴み、離反防止と客単価向上を実現したビッグデータ利活用手法を紹介した。

自社のキードライバーを見つけ伸ばすためにビッグデータを活用すべき

 日立製作所のビッグデータソリューション部で年間60社ほどの企業にビッグデータの活用方法を提案しているという石川氏は、「ビッグデータを収益化するための活用方法をまだよく理解されていない場合が多い」と話す。ビッグデータの定義が人によって異なるため、話しが噛みあわないことが原因だという。

 ビッグデータについては、とにかくデータ量が大きいという人、データの種類に注目する人、データの特徴で話す人、全体の概念で捉える人など、多種多様だ。石川氏は、この講演ではデータの種類で収益を生むための活用について考察すると宣言する。
 データの種類とは、マスタデータとトランザクションデータのマッシュアップや、チャネル・インタラクション・データ、ソーシャルデータ、マクロ経済・公的データなどを指す。

 ビッグデータの活用は手段であり目的ではないという石川氏は、「企業には必ずビジネスモデルや儲け話のメカニズムが存在する。それを再整理し、『このパラメータを伸ばすことで収益が上がる』というキードライバーを見つけ、それを伸ばすためにビッグデータを活用していくというアプローチで捉えるべき」と話す。

 しかし、同じ業態の企業でも成長の鍵となるキードライバーは異なる。例えば、一般のTVショッピング企業ではMD(目利きによる仕入れ)力やTV訴求力、刈り取り力を重視し、顧客と商品のマッチングはあまり重視しない。しかし、アマゾンは大量の品揃えと大量の顧客をマッチングさせて顧客経験の機会を増大させることをキードライバーとしているため、強調フィルタリングによる顧客への適切なリコメンデーションをビッグデータによる競争力強化の源泉としている。

「成功企業のキードライバーが自社にそのまま当てはまるとは限らない。儲けのメカニズムに依存する」という石川氏。

 キードライバーを把握し強化するためには、強み/差別化の把握→儲け話のメカニズムの把握→現状のキードライバーの把握→ビッグデータによる強化方法の検討→ビッグデータ活用の展開の順番論の検討、といったステップでデータ活用を考えることが必要だという。

 では、どんなデータを活用すべきか? 社内データか社外データか、定型データか非定型データかで分類し、まずは定型データで社内にあるマスタデータやトランザクションデータなど、すぐに活用できるのにもかかわらず、まだ十分に活用されていないデータを使ってキードライバーを伸ばしていくことが効果的だという。
 ならば、これらのデータをいつ、何の目的で活用すべきか? 石川氏は成長するためのPDCAプロセスは、キードライバーを伸ばすために活用することで更に加速できるという。「大きなPDS(Plan/Do/See)サイクルで、四半期/半期/年次での事業構造把握を行わない、小さなCA(Check/Action)で週次/月次の状況をモニタリングする」。この一見あたりまえのPDCAサイクルを回す一方で、未だ多くのお客さまが、見たいときに、見たいデータが手元に揃わない状況にあると言う。つまり、あとひと工夫、何かの改善が必要なわけだ。

購買行動と商品DNAを組み合わせて顧客のライフスタイルを特定

 次に石川氏は、小売大手のビッグデータ利活用によるPDCA加速事例を紹介した。この企業では、まだ実店舗での売上が圧倒的に大きいが、ネット市場が拡大する傾向にあり、店舗のショールーム化(ショールーミング)が始まっているという。その原因は、スマートフォンなどのモバイル端末が普及し、店舗とネットとの垣根をなくしつつあるとともに、消費者は自分にとって心地よいチャネルを選択しやすい環境を手に入れたことにあった。
 店舗で欲しい商品を見つけたがネットでもチェックするために購入を保留(Off→On行動)したり、ネットで欲しい商品を見つけたが店舗でもチェックするために購入を保留(On→Off行動)したりすることが急速に増えている。

「流通業ではこれを大きな課題としており、顧客のLTV(顧客生涯価値)が低下し、事業の成長を阻害するリスクと考えている」

 顧客の離反を防止し、自社のチャネルに引き込むためには、多様化、変化し続ける顧客の嗜好を補足すること、つまり静的な顧客のプロファイル理解ではなく本質的な価値観を理解することが重要だという。例えば、同じ30歳代・OLというプロファイルでも、手間がかかってもおいしくなくてはだめと考える顧客と、手軽で利便性の高いのが一番と考える顧客が存在し、価値観が大きく異なる。この二人の顧客に同じマーケティング施策を打ってはいけない、というわけだ。

 そこで、この小売企業では、顧客の個々の価値観(判断基準)をデータで把握することで顧客の嗜好に応じた的確なマーケティング施策を打ち、キードライバーであるLTVを向上できるとした。これを実現するために、顧客の購買行動と商品DNAを組み合わせて一人ひとりのライフスタイルを特定する「ライフスタイルセグメント手法」を活用。商品ごとに、小容量、子供向け、高品質、ヘルシーといったタグ(DNA)をつけてスコアリングをし、購入した顧客別にDNAの反応率を収集して、ライフスタイル別(贅沢・こだわり、健康志向、美容・ダイエットなど)に集計することで、実際の商品DNAに対比する個人の価値観を可視化した。

 10数億件のID-POSデータやCRMのデータをマッシュアップしてクラスタリングし、全体の平均値に対して顧客ごとの会員データから購買判断基準を抽出。個々の価値観を見える化して、価値観に応じたマーケティング(クーポン発行、キャンペーン企画立案、プライベートブランド企画立案など)が可能になり、自社チャネルへの囲い込みとLTVの向上に寄与したという。

ビッグデータをマッシュアップしキードライバーを改善する活動に注目

 ただし、ビッグデータを扱うには課題もあったという。顧客のライフスタイルや商品DNAの体系は、取り組み目的に基づくライフスタイル設定からスタートし、ライフスタイルセグメント定義、商品DNA体系の定義、商品DNAの付与、ライフスタイルセグメント付与といった一連のプロセスで運用するが、商品、顧客、購買履歴情報の数が膨大になるほど、データ処理量が掛け算で増え、業務的ボトルネックになりやすい。
 そこで日立製作所では、ビッグデータ技術を活用し、継続的業務として運用可能な現実的オペレーションの設計、運用を支援する。例えばこのプロジェクトでは、高速データアクセス基盤「Hitachi Advanced Data Binder プラットフォーム」をコアにしたシステム環境を適用し、膨大なビッグデータの可視化と、タイムリーな分析を実現した。

 石川氏は、「流通業に限らず、現在はビッグデータをマッシュアップし、見える化して、キードライバーを改善、収益に繋げていく活動が非常に注目されている」と強調する。

 そして今、経営層、マーケティング企画部門、情報システム部門などでは日々膨大なデータが発生し、それを戦略的に活用するための経営改革やマーケティング企画、業務改善を促進するための方策が求められている。

 日立製作所では、経営、マーケティング、業務課題の分析、ビジョンを構築から、活用シナリオ策定、実用化検証までを支援する「データアナリティクス・マイスターサービス」や、操作性に優れたBIシステムを素早く構築する「BIコンシェルジェサービス」、拡張性と保守性の高いDWHシステムを構築する「DWHシステム企画サービス」、消費者の行動履歴やWebのアクセスログ、センサーデータなどのビッグデータを業務や経営に役立てる「かんたんHadoopソリューション」などを提供している。
 最後に石川氏は、「日立製作所と日立ソリューションズでは、経営指標の改善検討から、データ利活用システムの開発、運用、保守をトータルに支援するソリューションが豊富に揃っている。ぜひ課題のヒアリングからご相談いただきたい」と語り、特別講演のまとめとした。

お問い合わせ

株式会社日立ソリューションズ Prowise Business Forum 事務局
〒108-8250 東京都港区港南2-18-1 JR品川イーストビル
TEL : 0120-958-545
FAX : 0120-989-097
E-mail : pbf@hitachi-solutions.com

最近見た商品
    セミナーに関するお問い合わせ

    セミナーに関するご質問・ご相談など

    お電話でのお問い合わせ 0120-958-545 受付時間:月曜日から金曜日(祝祭日除く)10時から17時30分

    Webからのお問い合わせ

    セミナーに関するお問い合わせ

    日立ソリューションズ 論より証言