JR西日本「ベンダーの提案すら理解できない素人だった」新幹線の“着雪量予測”データサイエンスコンペ開催までの「奮闘」

北陸新幹線に乗ったことがあるだろうか。上信越、北陸地方を経由し、東京と金沢を結ぶ新幹線だ。

冬に金沢から北陸を通って東京を目指す際には、走行中に車両の下部に雪が付着する。雪が固まりある程度の大きさになると軌道に落下する場合もあり、軌道に敷かれているバラストと呼ばれる砕石が飛散し周囲に危険が及ぶ。雪を取り除くためには大量の人員を必要とするため、あらかじめ着雪量を予測して、雪落とし作業の要否の目処をつける必要がある。

▲雪落とし作業の様子 出典:JR西日本提供資料

JR西日本は、2019年から新幹線の着雪量予測にAIモデルの試行を開始した。このAIモデルは、データサイエンスコンペティションであるSIGNATEでのコンペによって生み出されたという。

AIモデル作成に、なぜコンペという方法を選んだのか? そもそも、重厚長大な鉄道会社が、どのようにしてコンペ開催まで至ったのか? コンペによってどのような成果が得られたのか? JR西日本 鉄道本部 技術企画部 データソリューション 兼 海外鉄道事業推進室 担当課長の宮崎祐丞さんに話を聞いた。

データを駆使して一日で数百万円を救える可能性

JR西日本は2018年3月に技術ビジョンを策定し、「持続可能な鉄道・交通システムの構築」の実現に向けて取り組みを開始。そのための施策のひとつとして、データサイエンスによる業務改革を推進している。

宮崎さんは2017年5月末まで黄色い新幹線、ドクターイエローで知られる新幹線の線路保守を担当する部署に所属していた。そして2017年6月の技術企画部内の「データ戦略・CBM専任グループ」発足を機に、宮崎さんが同グループのビジネス担当のリーダーとしてアサインされた。

社内のデータサイエンスによる業務変革を促進するための成功事例創出の必要性から、冒頭の着雪量予測に取り組むこととなったという。

JR西日本 鉄道本部 技術企画部 データソリューション 兼 海外鉄道事業推進室 担当課長 宮崎祐丞氏

――宮崎
「前部署に在籍していたときから車両の着雪量を調べたりしていたため、AIプロジェクトを開始するために必要なデータがあるのは分かっていました。コンペが開催できるギリギリのデータ量でしたね」

冒頭で紹介した通り、冬季に新幹線が金沢から関東に来る際は、雪が落下することによる危険を回避するために車両に付着した雪を落とす必要がある。そこで、気象会社から提供される着雪量の見込みをもとに、翌日の雪落としの要否を判断していた。

しかし、従来手法では精度が低く、予測がかなり外れてしまっていたという。その結果、雪落としの出動指示が出たにも関わらず、現場に来てみると雪がそれほど付着していていないという事態が発生していた。

――宮崎
「北陸新幹線は通常12両編成で、1両に台車が2つ付いているので24台車あります。1両に2名の人員を付けるとすると24名をアサインする必要があるので、予測精度が上がれば最低でも一日で数百万円の人件費を救える可能性があったのです」

データサイエンスコンペの存在を知る

そもそもデータ戦略・CBM専任グループ発足時、グループ内にデータサイエンス分野の知見・経験はまったくなかった。そのため、ブレーンとしての社外の分析ベンダーの選定を開始した宮崎さん。

しかし、ベンダー各社のプレゼンを聞いただけでは選定が難しかったという。

――宮崎
「10社ほどのベンダーに話を聞きましたが、似たようなパワポとプレゼンをいただいてもベンダーの実力はその時点では把握できなかったんです。何より、私たちも当時はド素人だったので理解できないのは当然でした

そのほか、共同研究という名目で大学教授などにアプローチするも、スピード感が折り合わなかった。

そんなとき転機が訪れた。宮崎さんの大学時代の研究室の同級生がGiXoというデータ分析・コンサルティング会社を立ち上げており相談を持ちかけたところ、Kaggleなどのデータサイエンスコンペティションの存在を知ったという。

Kaggleとは
機械学習・データ分析のコンペティションプラットフォーム。
――宮崎
「コンペという存在をそこで初めて知りました。データサイエンスの実力を測定できる場所があったのか、と。とはいえ、最初からKaggleコンペ開催はハードルが高い──。

そう思っていたところ、たまたまSIGNATEの齊藤代表と話す機会がありました。弊社のデータを見せたところ、このデータならコンペをできる、ぜひやろう、という話になったんです」

コンペ開催までの奮闘

社内にコンペ開催を提案したところ、予想したほどの反対はなかったという。しかし、「社内には賞金を懸けてのコンペにとまどいも見て取れた」と宮崎さんは語る。

――宮崎
「鉄道会社は車両開発をはじめ、自前で作るのが当然という文化でした。しかしデータサイエンスは伝統的な鉄道工学分野とはワケがちがう。GAFAをはじめ、社外で恐ろしいスピードで発展し続けているので、自前主義を貫くのが無理なのは社内のみんなが薄々感じていました。

例がよくないかもしれませんが(笑)警察庁は指名手配犯に懸賞金をかけている。昔から官庁ですらオープンイノベーションをやっているのに、ウチもやらなくてどうする! と引き合いに出して社内の説得を試みました。たとえコンペでデータを社外に公開しても、雪の量などのデータを見られたところで害はないですしね」

一番丁寧に説明したのが、雪落としの現場を抱える支社だったという。

――宮崎
「前任から着雪量の予測に携わっていたので自分としては当事者のつもりだったのですが、意義と効用を十分に伝えきれず、支社の事情を考慮していないプロジェクトと受け止められ、理解してもらうのに相当な時間がかかりました。説明をし始めたのがプロジェクト開始のわずか一ヶ月前だったので、遅すぎたのは否めませんが(笑)。

しかし、完成したAIモデルを使った着雪量予測の精度が出た瞬間に好意的に受け止めてもらいました。やっぱり動く現物を見せるのが説得には一番だと感じましたね

コンペの結果、思わぬ副産物も

社内の説得に奔走し、ようやくコンペの開催が決まった。コンペ開催の目的は2つあったという。

――宮崎
「ひとつは、まずは一回でも社内でデータサイエンス・AIプロジェクトの成功体験をつくること。2つ目はベンダーの実力を把握することです」

宮崎さんは成功体験を作ることで、その後社内でデータサイエンスを推進しやすくなると考えた。一方、ベンダー各社は実力把握のためのコンペを開催することに、どう対応したのか。

――宮崎
ベンダーには匿名アカウントを作ってもらいコンペに参加してもらいました。社内にも参加募集の告知を行い、結果的に社内外含め400人ほどが参加してくれましたね」

コンペ開催側の見返りとして、SIGNATE側から上位3位までのソースコードが譲渡される。結果、コンペによって予測精度の高いモデルを得ることができ、現在は着雪量予測AIとして稼働中だという。

しかし、もっと驚くべき「副産物」があったと宮崎さんは言う。

――宮崎
「JR西日本社員が4名参加しており、しかも上位に入賞したんです。当初ノーマークだった社員が3位、8位に入り、ベンダーよりも社員のほうが順位が高いという結果になりました

上位入賞した2名はそれぞれ趣味でデータサイエンスに取り組んでおり、1人は自動改札機のメンテナンス部署に所属し、もう1人は新幹線の運転士だった。今ではそれぞれの部署から異動し、宮崎さん率いる技術企画部データソリューショングループに所属。自らAIモデルを構築・ビジネス実装を手がけ、ベンダーとも対等に会話できる即戦力として活躍しているという。

また、コンペに参加したベンダーはモデルの精度が低かったわけではなく、実際に上位入賞もしていた。現在では、自社で対応するのが難しい課題についてはいつでも相談できる体制を作り、すばやく精度を確認したい場合は、コンペを通じてパートナーとして選定し資本業務提携を交わしたGiXoに相談するという役割分担の体制を敷いているという。

――宮崎
「開発を完全に外注しては社内にノウハウが貯まっていかない。プロジェクト初期は外部パートナーと連携し、ある程度社内にノウハウが貯まったのちに内製を進めるオープン&クローズ戦略がベストだと思います

「具体的な課題認識」を社内研修でも徹底

モデルと優秀な人材を手にしたJR西日本。「ほかにも重要な学びがあった」と宮崎さんは話す。

――宮崎
「初動時にベンダーの話を聞いても理解できなかった理由として、現場でどう使われるかというユーザーニーズを考慮できていなかったのに加え、何より現場を巻き込めていなかったのが反省点だと感じていました。反省点からの学びを社内の人材教育に活かしています」

そういって宮崎さんが見せてくれたのは、以下のシートだ。誰がどう困っているのか、具体的にどのくらいの効果が見込めるのかを明確にするためのもの。

出典:JR西日本提供資料

宮崎さんのチームも、活動初期は上記のシートを漠然とした粒度でしか埋められなかったという。しかし、今では数字やどのデータを使うかの戦略まで含めた、具体的な粒度でシートを埋めることが可能になった。

――宮崎
「コンペを通して、具体的な課題設定をすることの重要性を痛感しました。みんな、なんとなく業務上困っていること・課題だと感じていることはわかっていても、具体的・定量的に表現するのは意外と難しいのです。とはいえ、データ分析を価値あるものとするためには非常に重要なポイントなので、ここで妥協してはいけません」

データソリューショングループの社員が講師をつとめる社内のデータサイエンス研修ではこのシートを埋める作業を行い、課題感を明確にすることでプロジェクト成功時のイメージをつかんでもらうという。もちろん、宮崎さんのチームがつきっきりだ。

重厚長大産業でも見えたAI活用の可能性。コンペもひとつの選択肢

コンペを経て、データサイエンス組織へと脱皮しようとしているJR西日本は、今後どのようなポジションを目指すのか。

――宮崎
「結局、AI・データサイエンスは着手したもの勝ちな部分があります。オープン&クローズ戦略や人材育成は、他社が簡単には真似できないJR西日本のコアコンピタンス。そこをもっと強化していきます。西日本というひとつの課題先進地域として、顕在化している課題に一番最初に手を付け、先例を示し続ける使命があると思っています」

鉄道会社などの“モノ”を持つ産業では、どのようにデータを取得し、どこにデータ貯めるかなどのIoT戦略が重要となる。将来的にはJR西日本社内のそれらを担う現場に対して、よりAI・データサイエンスを普及させていきたいと宮崎さんは語る。

――宮崎
「データをどこにあるどのデバイスから取得し、どのようにデータを貯めるかの戦略立案には時間もお金もかかります。鉄道会社という重厚長大なビジネスだからこそ、IoT戦略を適切に理解し立案できる現場やビジネスサイドにデータサイエンスを浸透させていきたいと思います」

Ledge.aiでは過去にAI導入事例を何度も取材してきたが、成功している企業に共通するのは担当者が現場のニーズを正しく理解しようとしていることだ。導入ありきで適切な課題設定をせずに、現場でAIがどう使われるのかまでを理解していなければ、AI活用は成功しないと言っていい。

AIの精度を上げる手段としてデータサイエンスコンペを開催するには、プロジェクトの目的を理解し、課題認識の粒度をあげる必要がある。だからこそ、JR西日本のようにデータサイエンスコンペの準備段階で自社の課題に対しての理解が進むのだろう。

今回のように、社内に眠る思わぬ人材も発掘できるかもしれない。“使えるデータ”を持っている企業であれば、データサイエンスコンペの開催はひとつの選択肢かもしれない。

データ活用をより身近に。Prediction Oneで体重の変化を予測してみる

【PR】この記事はソニーネットワークコミュニケーションズ株式会社のスポンサードコンテンツです。

ビジネスにおけるデータ活用の重要性が声高に叫ばれる昨今、予測分析による業務の効率化に注目が集まっている。

しかし、データ活用を未だに進めていない企業や、データとの関わりが薄い部署で働く個人にとって、予測分析がどんなデータをもとに、どのような手順で進められ、結果的にどういった示唆を生むのか見当もつかない人も多いだろう。

そこで今回は、ソニーネットワークコミュニケーションズが当面の間、無料で提供する予測分析ツール「Prediction One」を使用し、個人で準備可能なデータから日常生活を豊かにする示唆を導き出せるか検証する。

ソニーネットワークコミュニケーションズが提供する「Prediction One」とは

Prediction Oneは、ソニーネットワークコミュニケーションズが当面の間、無料で提供する予測分析ツールだ。

データさえ揃えられれば、サービスの解約率の予測や、工場機械の故障予測商品の市場価格推移の予測など、さまざまな問題に対する予測分析が可能となる点が強みで、業界、職種問わず活用が見込めるツールとなっている。

使い方はいたってシンプルで、表計算ソフトなどでまとめたデータをCSVファイルとして書き出し、予測したい変数を選択しモデル作成をクリックするだけだ。

Prediction Oneには10種類以上のアルゴリズムが組み込まれており、読み込ませたデータセットに応じて、各アルゴリズムによる予測モデルを作成し、もっとも予測精度が高いモデルを表示してくれる。

日常生活で手に入るデータを分析し、新たな価値を生み出す

本記事では、予測分析をより身近に感じてもらうため、日常生活で取得可能な食事や運動、摂取カロリーなどの変数から、体重の変化を予測。どの変数が体重の変化に対してもっとも影響が大きいのか導き出す。

使用するデータは、データサイエンティスト向けのプラットフォーム「Kaggle」にアップロードされている、『2018 calorie, exercise and weight changes』で、データに含まれる変数は以下の通り。

  • Date:計測をおこなった日付
  • Stone, Pounds, Ounces:体重の計測結果(Stone = 約6.35kg, Pounds = 約453g, Ounces = 約28.3g)
  • weight_oz:体重をオンスのみで表した際の総重量
  • calories:各日付における摂取カロリーの概算(カロリーは記録の簡易化を目的に、摂取した食材ごとの栄養情報をもとに、50キロカロリー単位で切り上げし計測。栄養情報が手に入らない場合、カロリーは過去の経験と推測をもとに入力している)
  • cals_per_oz:摂取カロリーをオンス単位で表記した体重で割った数値
  • five_donuts:食事のメインが5つのジャムドーナツだった日(day where main meal was bag of five jam donuts, 1 = TRUE, 0 = FALSE)
  • walk:20分以上の自発的なウォーキングをおこなった日 1 = TRUE, 0 = FALSE
  • run:2.5マイル(約4キロ)以上のランニングをおこなった日 1 = TRUE, 0 = FALSE
  • wine: ラージグラス一杯(250ml)以上のワインを摂取した日 1 = TRUE, 0 = FALSE
  • prot: 高プロテインな食事をした日 1 = TRUE, 0 = FALSE
  • weight: ウェイトトレーニングをおこなった期間(ウェイトトレーニングの休養日もTRUEとして含む) 1 = TRUE, 0 = FALSE
  • change: オンス単位での体重の変化

Prediction Oneでは、データに含まれる変数の中から1つを選び、その残りの変数から選択した変数の値を予測することができる。

この検証では、変数「change」を予測対象として進める。

検証をおこなう手順は以下の通り。

  1. Prediction Oneをインストールする
  2. データセットを分割する
  3. Prediction Oneを起動し、新規プロジェクトを作成する
  4. 変数を調整し、モデルを作成する
  5. 予測モデルを検証する

STEP1:Prediction Oneをインストールする

まず、Prediction Oneのダウンロードから始めていく。Predicton Oneは公式サイトからダウンロード可能。

現時点ではWindows OS版のみの対応となっているため、Windows OSがインストールされているPCが必要だ。

ダウンロードが完了次第、インストールすればツールの準備は完了する。

Prediction Oneの特長のひとつとして、完全オフラインでの予測分析が可能な点が挙げられる。

業務上の都合で、データをクラウド上に移行することが難しい企業は多いと思うが、Prediction Oneでは、データ流出の危険性はない。

そのため、セキュリティが厳しい企業であればあるほど、有用なツールだといえるだろう。

STEP2:データセットを分割する

作成したモデルが本当に有用かどうか検証するには、データセットを予測モデルの作成用と検証用に分割し、検証用において予測結果と実際の結果の照らし合わせが必要となる。Prediction Oneは検証用のデータを作成し検証まで自動的に行う。

Prediction Oneの予測機能を利用して、予測結果と実際の結果を並べて比較するため、今回はあえてデータセットを予測モデルの作成用と検証用に分割することにする。

そのため、今回は、『2018 calorie, exercise and weight changes』の最終2週間を検証用のデータとして用いることにする。検証用データは、今回のターゲットである変数「change」の値を別のファイルにメモし、使用するデータからは値を削除する。

この際に気を付けることは、列自体を削除しないことだ。列自体を削除してしまうと検証ができなくなるため、小さいことだが気を付けておきたい。

検証用に成型したデータは以下の通り。

STEP3:Prediction Oneを起動し、新規プロジェクトを作成する

ここからは、実際にモデル作成を始めていく。Prediction Oneを起動し、新規プロジェクトを作成する。

プロジェクトタイトルは『体重変化の予測』と設定した。

STEP4:変数を調整し、モデルを作成する

プロジェクトが作成出来たら、新規モデルを作成する。ここで、CSVファイルに含まれるどの変数を予測するモデルを作成したいのか決定し、そのうえで、予測分析に使用する変数を選択していく。

この検証では、「weight_oz」を除いたすべての変数を使用した。

「weight_oz」を除いた理由は、「weight_oz」と「change」は実質的に同じ意味を持つためだ。

変数を変更することでモデル精度を調整可能

他にも、検証には不必要に思える変数はいくつかあるが、Prediction Oneが自動的に変数の調整を行ってくれるため、ひとまずは変数を極力減らさずに進めていく。

予測分析をおこなう際には、データの中から個別に意味を持たないものや、予測したい変数と同義の変数を排除していかなければ、実用性のあるモデルは構築できない。

モデルを作った際に、精度が高すぎた場合にも、精度が低い場合と同じくなんらかの問題をはらんでいることが多いことを覚えておく必要がある。

Predicton Oneでは、予測したい変数と使用する変数を選択し、「学習と評価を実行」をクリックするだけで自動でモデル作成が進む。

使用するPCのスペックや、データセットの大きさにより、分析にかかる時間が大きく変化するため、始めは10KB程の小さめのデータセットで試してみることをお勧めする。

小さめのデータセットを使用し、さまざまな変数の組み合わせを試すことで、データ活用の可能性を肌で感じられるはずだ。

Prediction Oneでは、どのデータが結果に対して大きな影響をもたらすのかを確認することも可能で、今回使用したデータセットの中では、体重の推移に及ぼす影響がもっとも大きい要因は摂取カロリーだということが判明した。

つまり、運動の有無よりも摂取カロリーを低く保つことがダイエットには有効だということだ。

さらに細かく見ていくと、体重1オンスあたりの摂取カロリーが0.510~0.860のとき、体重は減少する傾向にあることや、運動の有無が結果に大きく影響していることも、モデルの評価結果から見えてくる。

STEP5:予測モデルを検証する

ある程度使えそうなモデルが作成できた時点で、検証に移る。

検証したいモデルを選択し、「新規予測」をクリック。用意した検証用データを読み込ませる。

今回の検証で選択したモデルの検証結果は以下の通り。

今回使用したデータは、大まかな運動の有無やカロリーなど、基礎的なものが多いにも関わらず、実際の値とPrediction Oneの予測値に大きな乖離はなかった

個人でダイエットの指標として活用するには十分な予測モデルができたといえる。

予測分析が生み出す2つの価値

今回の検証を通して、ダイエットという日常的な事柄に対して予測分析をおこなうことによるメリットが2つ判明した。

1つめは、ダイエットの成功につながる要因を見つけ出せることだ。

ダイエット中の生活で取得可能なデータを分析していくことで、どんな行為が体重の増減にどう寄与するのかデータをもとに理解することで、より効率的なダイエットができるといえる。また、取得してきたデータをより細分化し、さらに精密な分析をおこなうことも可能になる。

例えば、摂取カロリーに占める糖質の割合や、脂質の割合をデータとして取得することで、さらに効率的なダイエットを目指すことも可能だ。

2つめのメリットは、モチベーションの管理だ。ダイエットを成功させるには、継続的に自分自身を律し、目標に向けて努力し続ける必要がある。

しかし、ダイエットの効果は一朝一夕には体感できないため、早い段階で諦めてしまう人が多い。そんなとき、日々の摂取カロリーや運動量の計画値を入力することで、体重変化の予測推移が確認できれば、モチベーションの向上にもつながるだろう。

上記のようなメリットはビジネスにおいても同様だ。

取得が容易なデータを蓄積していき、分析することで、事業成長に大きな影響を及ぼす要因を見つけ出すことや、予算や過去の実績をもとに、現実的な数値目標の設定も可能になる。

今回の企画を通じて伝えたいことは、今までデータ活用を敬遠してきた人でも、個人に紐づく日常的なデータの分析から始めることで、データへの理解を深めることができるということだ。

データ活用の一歩目をPrediction Oneによる予測分析から進めてみるのはいかがだろうか。

AI TALK NIGHT vol.14 開催!テーマは『自然言語×音声×画像のオムニAI活用~2020年に持つべきAI戦略~』

レッジがAIのスペシャリストを招いて開催する「AI TALK NIGHT」。第14回開催のお知らせです。

AI TALK NIGHTとは?
成長著しいAIソリューションを、どうやって自社の業務やサービスに活かせばいいのか?「AI TALK NIGHT」は、そんなAI導入を検討している企業がもつ悩みを、AIのスペシャリストのゲストに直接ぶつけられる無料のトークイベントです。様々な会社のイベントスペースで定期開催しています。過去のイベントレポートは下記から。
【Microsoft×電通】使えるAIを作るためには「仮説」と「現場の声」が不可欠
「PoC、ぶっちゃけいくら?」製造業とAIの“リアル”をベンダー3社が語る

第14回目となる今回のテーマは『自然言語×音声×画像のオムニAI活用~2020年に持つべきAI戦略~』です。

ビジネス課題が複雑化する中、「一つのAI」だけでは解決できない場面が増加しています。特に自然言語や音声、画像といった非構造化データを価値化するAIの活用に際しては、単独ではなくビジネス課題に応じてうまく組み合わせて活かす「オムニAI」の発想が求められています。

そこで本イベントでは、自然言語処理領域、音声認識領域、画像認識領域のトップランナー達が技術・ビジネスの最前線をお伝えするとともに、それぞれが「オムニAI」としてフュージョンすることの意義を、トークセッション形式でお伝えします。AI活用に関するヒントを得られる機会となっておりますので、ぜひご参加ください。

参加費は無料となっております。ぜひお気軽にお申込みください。

登壇者紹介

株式会社 Insight Tech 代表取締役社長 CEO
伊藤 友博

株式会社Insight Tech 代表取締役社長 CEO。1999年、三菱総合研究所に入社。メガバンク等の大手企業においてビッグデータマーケティングを組織に定着させるコンサルティングを牽引。その後、HR領域等においてAI(人工知能)を活用した新事業開発を牽引。2017年より株式会社Insight Tech代表取締役社長。日本マーケティング学会学会員。

株式会社アジラ COO
三村 完

1973年、兵庫県生まれ。航空自衛隊幹部、塾講師など異業種の職歴を経たのち、幼少より慣れ親しんだプログラム開発の業務に就く。インターネット黎明期からベンチャー企業にてコンシューマー向け~業務系の様々なシステム開発や商品企画開発・経営に携わった後、AI開発を志し、各種画像認識系開発に携わり、現在に至る。

株式会社Empath Co-founder and CSO
山崎はずむ

音声感情解析AIを開発する株式会社EmpathのCo-founder兼CSO、主に海外戦略を担当。これまで日本のスタートアップ代表として国際的なピッチ・コンテストで10度優勝、ドイツのIFAやルクセンブルクのICT Springといった国際的テック・カンファレンスではAIと倫理に関するキー・ノート・スピーカーとして招聘される。

株式会社レッジ 執行役員 / Ledge.ai編集長
飯野 希(モデレーター)

株式会社レッジの執行役員兼Ledge.ai編集長。2016年3月に株式会社ビットエーへ入社。AI特化型メディア「BITAデジマラボ(現Ledge.ai)」を立ち上げ、編集長に就任し、日本最大級のAIメディアに成長させる。AIコンサルティング事業の立ち上げも行い、2017年10月にはBITAデジマラボの部隊を株式会社レッジとして子会社化。

申込みはこちらから

お申込みはこちらから。参加費は無料です。定員を超えて以降のお申し込みは、抽選とさせていただきますので、お早めのお申し込みをお願いいたします。

開催概要

イベント名 AI TALK NIGHT vol.14 『自然言語×音声×画像のオムニAI活用~2020年に持つべきAI戦略~』
開催場所 GMOインターネット株式会社「GMO Yours」
(東京都渋谷区桜丘町26番1号)
開催日時 2019年12月12日.Tue 19:00~21:30
登壇者 <スピーカー>
伊藤 友博(株式会社 Insight Tech 代表取締役社長 CEO)
三村 完(株式会社アジラ COO)
山崎はずむ(株式会社Empath Co-founder and CSO)
<モデレーター>
飯野 希(株式会社レッジ 執行役員 / Ledge.ai編集長)
定員 150名
参加費 無料
タイムライン 18時30分 参加者受付開始
18時55分 登壇者紹介
19時00分 各社のAIに関する取り組みのご紹介
19時45分 パネルディスカッション『自然言語×音声×画像のオムニAI活用~2020年に持つべきAI戦略~』
20時30分 質疑応答
20時40分 懇親会 (軽食 / ドリンクあり)
21時30分 終了
申し込み方法 お申し込みフォームより受け付けております。

協賛企業のご紹介

今回のイベントは、GMOインターネット株式会社より協賛いただいております。
GPUクラウドは、NVIDIA社の最新GPU「Tesla® V100」と、高速インターコネクト「InfiniBand EDR」および分散ファイルシステム「Lustre (ラスター) 」を組み合わせ、機械学習やディープラーニングに求められる高速演算リソースをクラウド環境で提供する、GMOインターネットの最新クラウドサーバーです。
GPUクラウドについて

福井の地元企業12社がAI活用を推進、裏にはソニーの予測分析ツール

【PR】この記事はソニーネットワークコミュニケーションズ株式会社のスポンサードコンテンツです。

日本は現在、人口減少や高齢化をはじめとする社会課題を多く抱え、課題先進国と呼ばれている。なかでも、都心部への労働力流出が進む地方の課題はとくに顕著であり、テクノロジーによる課題解決が急がれている。

福井県においても、人手不足や都市との格差などの課題に悩まされている。そこで、福井県内の地元企業がAIによる課題解決のヒントを得るべく福井新聞社・電通・レッジが共同で開催したイベントが「THINK AI」だ。

本稿ではイベントの様子を抜粋してお届けする。

AIプロジェクトを自社で立ち上げるためのワークショップ

今回参加した12社は、クリーニング店を営む企業や、古紙回収を行う企業など、いずれも福井県内で事業を営んでいる。参加企業が目指した目標は、自社でAIプロジェクトを立ち上げることだ。

本イベントは7、8、9月に一回ずつ、計3回。各回では主に以下を行なった。

DAY1:AIの基礎理解セミナー、自社課題発見ワークショップ
DAY2:Prediction Oneを用いた体験型ワークショップ
DAY3:自社で行うAIプロジェクト案の発表

DAY1:AIの基礎理解セミナー、自社課題発見ワークショップの様子

DAY2では、ソニーネットワークコミュニケーションズが当面は無料として提供している予測分析ツール「Prediction One」を用い、実際に予測分析を行うワークショップを行った。

関連記事:予測分析ツール「Prediction One」をソニーが無償提供。導入後は38倍の作業効率化

ワークショップにPrediction Oneを選んだ理由

本ワークショップでは、短い期間で実用的なAI活用の知見を体験してもらうべく、簡単に操作できるツールを使い、ビジネス実装まで見込めるツールを体験してもらう必要があった。

近年、プログラミング不要でモデルが組めるGUIツールなどが数多くリリースされているが、Prediction Oneを使用した主な理由は、実用的かつ手軽に扱える点である。

データさえ揃えられれば、解約率の予測や、故障予測、価格推移の予測などさまざまな予測分析が可能となる点が強みで、業界、職種を問わず活用が見込めるツールとなっている。

また、実際に企業が本ツールを活用している事例もあり、試験的な運用に限らず、現場への実装も可能。まさに、プロジェクト化を目指す本イベントにうってつけのツールである。

<Prediction Oneの特徴>

  • 専門知識が不要で、ワンクリックで学習・分析ができる
  • 自動モデリングで高精度な予測が可能
  • 予測結果に対する影響度が可視化されることで、予測の理由がわかる
  • クラウドではなくデスクトップやノートパソコンで動くためデータのアップロードに時間がかからない。また、社外にデータを送信する必要がない
<活用事例>

  • 各見込み顧客の成約確率を予測し、成約角度の高い営業先を選定
  • 入電数予測による、コールセンター業務のシフト最適化
  • 完成前の製品の特性を予測し、開発や製造を効率化
  • 周囲の雨量や天気から河川の氾濫を予測

AIプロジェクト化に向けて行なったワークショップ

今回のワークショップでは、複数のお題とそれにまつわるデータを事前に準備し、参加者に提供した。お題の例としては、「とある八百屋における、明日売れるトマトの売上予測」といったような、身近に感じられるテーマを選んだ。

ワークショップの流れとしては以下のとおり。

①学習用と予測用のデータをcsv形式で参加者に配布
②参加者がデータをPrediction Oneにアップロード
③用意されたデータのなかで、精度に寄与しそうなカラムを選択し、モデルを作成
④結果画面から、カラム(項目)の寄与度や精度を確認

参加者は③,④を繰り返し、どんなインプットをするとどんなアウトプットが返ってくるのかを学ぶ。たとえば、「トマトの売上には、Aという値は強く関係しそうだが、Bという値はそこまで関係なさそう」といった感覚は、分析に適用するカラムをクリックで選択することで、手軽に変更することができる。

学習・分析がワンクリックで終えられるため、事前にツールの使用方法は説明せず、参加者はその場で使いながら覚えていくことができた。

また、一度やり方を覚えてしまえば、同じ手法で別の予測分析を行うこともできる。実際に後日、Prediction Oneを使用し、自社データを活用して予測分析をする参加者もいた。

Prediction Oneが可能にしたこと

本ワークショップでPrediction Oneを使用したことで、大きく2つの気づきがあった。

ひとつは、参加者にとってツール利用のハードルが下がったことである。技術ハードルが下がり、エンジニアでなくてもモデルが作れるような動きが広がってはいるものの、それらを実際に触ってみるというハードルの高さは拭いきれない。

しかし、一度ツールを体験してみると、AIがどのような課題を解決可能で、どのような課題解決は苦手なのか、勘所を掴めたという参加者がほとんどだった。予測だけでなく、画像認識や自然言語処理を行うために、自主的に別のツールを使ってみるといった動きも見られた。

Prediction Oneを使うなかでは、日々の業務では聞きなれないであろう単語も出てくる。たとえば、”寄与度”や”Precision”といった単語は普段使う単語ではない。しかし、ツールを触りながら意味を知ることで、こうした単語に詰まることなくツールを使いこなせる。

2つ目は、データ収集の難しさとその重要性に参加者が自ら気づいたことである。今回のワークショップでは、サンプルデータとして運営であるレッジから4種類のデータセットを提供した。

しかし、参加者が自社で予測分析を行うためには、自社のデータを一定量整理した状態で準備する必要がある。予測分析をするためにはこんなデータが必要そうだ、と見立てを立てることができたことも、Prediction Oneによってもたらされた成果であったように思う。

AI活用のハードルを取り除くPrediction One

Prediction Oneには、多くのチュートリアルとサンプルデータが用意されている。データが綺麗に整っていないという人は、サンプルデータを使っていくつか予測分析をしてみるといろいろな発見がありそうだ。

Prediction Oneに用意されているサンプルデータ(チュートリアル)。様々な活用シーンを想定できる

また、予測分析をしてみたい題材を持っているのであれば、今あるデータでまずは分析してみる、というのも良いかもしれない。自社業務に関わるデータでも良いし、個人的なデータでも予測分析は簡単に行うことができる。

専門家でなくても手軽に使えるため、これからAIを活用していこうと考えている企業にとっては、最初に使ってみるべきツールといえるだろう。一通り動かしてみればAIに対するリテラシーの向上にもつながる。

予測分析はリスクの低減、オペレーションの最適化、収益の拡大など、あらゆる業界に適用可能だ。導入事業成長に大きな影響を及ぼす要因を見つけ出したり、現実的な数値目標の設定をしたりするという活用方法もあるだろう。

ツールは当面の間は無料提供される。 興味がある方は使ってみてはいかがだろうか。

レイ・カーツワイルとは|人物像・研究・予測・シンギュラリティ論・現在

Photo by nrkbeta on Flickr

近年、AI(人工知能)は新たな技術革新として、頻繁に話題にあがります。本稿では、人工知能研究の第一人者レイ・カーツワイル氏の人物像や研究、提唱する概念について解説します。

レイ・カーツワイルとは?

Photo by Pete Linforthon Pixabay

レイ・カーツワイルとは、アメリカ合衆国の発明家、実業家、未来学者です。人工知能研究の世界的権威であり、とくにシンギュラリティ(技術的特異点)に関する著述で知られています。

アメリカ合衆国の発明家であり未来学者

レイ・カーツワイル氏は、1948年アメリカ合衆国ニューヨーク市で生まれ、本名をレイモンド・カーツワイル(Raymond Kurzweil)といいます。

自然言語処理や機械学習を専門としており、AIについてのほか、健康やトランスヒューマニズム、シンギュラリティに関する著作があります。また、1999年にはアメリカの技術分野における最高の栄誉「アメリカ国家技術賞(National Medal of Technology and Innovation)」を受賞しています。

高校生のころ、統計分析が行えるソフトウェアやクラシック音楽を作曲するソフトウェアを開発し、当時のアメリカ大統領リンドン・ジョンソン氏から賞を授与されました。

20代では、印刷されている文字をデジタルデータ化するOCRソフトウェアやフラットベッドスキャナーを開発し、30代には、スティーヴィー・ワンダーとシンセサイザーの会社を設立しています。

1990年に発刊した『The Age of Intelligent Machines(知的機械の時代)』のなかでは、インターネットの普及やコンピューターがチェスで人間に勝つことなどさまざまな予測をしています。

カーツワイル氏の予言

カーツワイル氏は自身の著書でさまざまな予測を展開しています。

著書『The Age of Intelligent Machines』(1990)では、当時世界に2600万人ほどのインターネットユーザーしかいない時代に、「検索エンジン」の登場を予測しました。これは、1997年に「Google」が設立され実現しています。

また、「2000年までにコンピュータがチェスの世界王者に勝利する」と予測し、こちらも1997年にIBM社のスーパーコンピューター「Deep Blue」により実現しています。

ほかにも多くの予測を展開しており、未来学者としても知られています。

by 2020
・ナノテクノロジーや強いAIが実現する
・AIがチューリングテストを突破する
・100nm以下のサイズのコンピューターが実現する
・現実と見間違うクオリティのVR技術が実現する
by 2030s
・精神をコンピューターにアップロードできるようになる
・ナノマシーンを脳に挿入することで、外部機械なしにVRを見たり、記憶など脳機能を著しく向上できる
・テレパシー的コミュニケーションが可能になる

出典:Ray Kurzweil「The Age of Intelligent Machines」(1990)

シンギュラリティ論(GNR論)とは?

Photo by sujin soman on Pixabay

レイ・カーツワイル氏が、著書『The Singularity Is Near : When Humans Transcend Biology(邦題:ポスト・ヒューマン誕生)』(2005)で展開した理論が、シンギュラリティ論(GNR論)です。

同書でカーツワイル氏は、遺伝子学(Genome Science)、ナノテクノロジー(Nano-technology)、ロボット工学技術(Robotics)の3つの技術革命が融合することで、私たちが住む社会や人生観、世界観が根本から変化するシンギュラリティが起きると述べました。

シンギュラリティとは、AIなどの技術が、自ら人間より賢い知能を生み出すことが可能になる時点を指す言葉です。

関連記事:

世のなかを大きく変える3つの技術

シンギュラリティ論は、遺伝子学(Genome Science)ナノテクノロジー
(Nano-technology)
ロボット工学技術(Robotics)の頭文字をとってGNR論とも呼ばれます。これら3つの技術が飛躍的に進化し融合すると、人間の身体が根本的に進化する「人体2.0」が実現する可能性があると述べています。

・遺伝子学の発展
生命が宿している遺伝子的な情報を理解することで、実質的に病気をなくし、人間の能力を著しく向上させ、寿命を大きく伸ばすように、生命を再設計することが可能である
・ナノテクノロジーの発展
私たちの体や脳など、私たちが関わる世界すべてを分子レベルで再現できるようなる
・ロボット工学技術の発展
人間の知能に由来するが、人間の能力をはるかに超えられるように再設計された、人間レベルのロボットが実現する

人体2.0

レイ・カーツワイル氏は、著書『The Singularity Is Near : When Humans Transcend Biology』(2005)にて、3つの技術の発展により、人体のさまざまな器官、機能が再設計され、根本的に進化すると予測しています。

・「新しい食事法」
食事により栄養を取る必要がなくなります。血流にセンサーを搭載したナノロボットを挿入し、最適な健康状態に必要な栄養素を、ひとりひとりにあわせ直接投入できるようになります
・「プログラムできる血液」
赤血球を再設計することにより、人は酸素なしで数時間生存が可能になります。また、白血球の代替物として人工ナノマシーンを使用することで、あらゆる感染症を治療でき、癌にも効果を発揮します
・「臓器がいらなくなる」
自動運動性のナノロボット血球を挿入することで、心臓のポンプ機能なしで血液を自動的に流動させ、栄養を全体に届けることができるようになります

また、ナノロボットに酸素の供給と二酸化炭素の除去を任せることで、肺の機能を代替できるようになります。
その他さまざまな生体器官が代替されると予測しています。

この「人体2.0」が、実現するかは定かではありません。しかし3つの技術の発展により私達の生活が根本的に変化することは確かです。

「2045年問題」とは?

カーツワイル氏は、AIが人間の知能を超えるシンギュラリティ(技術的特異点)は2045年に来ると予測しています。技術的特異点を迎えることで、人工知能が人間の知能を上回り、2045年以降、人間の想像を超越して社会が進化していくと予測しています。

関連記事:

レイ・カーツワイルのAIの展望

Photo by Rosa Menkman on Flickr

2018年に開催された会議「RAAD2018」で、レイ・カーツワイル氏はAIの進展状況や将来の展望を語りました。

彼は、2020年台後半に、家庭用の家事ロボットが完成し、2029年にはAIが人間並の知能をもつと述べています。

また、著書『The Singularity Is Near』(2005)発表時から、AIの進化に対する楽観的な考えに変化はなく、「起業家は科学技術に対して楽観的であるべきである」という持論を展開しています。

プライバシーの問題についても、「人々を管理するようなAIは今のところなく、ポケットのなかのスマートフォンにAIは搭載され、AIは分散化されている状態といえる。巨大企業がデータを独占しAIを利用する懸念はありますが、それと同時にテクノロジーが民主化する動き自体も活発化しているので、驚異にはならないだろう」と語っています。

現在のレイ・カーツワイル氏

カーツワイル氏は、2008年に『Abundance』の著者で実業家のピーター・ディアマンディス氏と共同で、「シンギュラリティ大学(Singularity University)」を創設しました。テクノロジーを利用し、全世界の英知を結集して世の中のあらゆる課題を解決し、豊かな未来を築くことを目的としています。

71歳(2019年)現在、グーグルで技術課長として、機械学習や自然言語処理技術を開発するチームの統率をしています。

最近では、Gmailアプリのモバイル機能「スマートリプライ」という、受信したメールをAIが自動解析し、ユーザーが返信の文章を作成しはじめると同時に、その後に続く文章をAIが自動で提案する機能を開発しました。現在もなお、人工知能研究の第一人者として、数々の研究にあたっています。

2045年にシンギュラリティが来る、人間が進化するなど、カーツワイル氏が展望する未来が起きるかどうかは定かではありません。しかし、現在でもさまざまな範囲で、AI(人工知能)は活躍しており、私たちも急速な技術革新に対応していかなくてなりません。

ソニーが新組織「Sony AI」を設立、“食”領域での活用を狙う

ソニーは11月20日、日米欧グローバルに拠点を置く新組織「Sony AI」の設立を発表した。

Sony AIでは、ソニーグループのもつイメージング&センシング技術、ロボティクス技術や映画・音楽・ゲームなどのエンタテインメントの資産を掛け合わせ、すべての事業領域における変革と、新たな事業分野の創出に貢献することを目標としている。将来的には、ソニーの事業ドメインの枠を超え、世界規模の課題解決に対する貢献へとつなげていくことも目指している。

フラグシップ・プロジェクトは、ゲーム、イメージング&センシング、ガストロノミー(食)の3領域。注力分野にガストロノミーを挙げた理由について編集部がソニーに対し取材したところ

「ガストロノミーは、非常に広範なマーケットであり、“食”という人類にとって不可欠な領域。ソニーは『クリエイティビティとテクノロジーで世界と感動で満たす』を“食”という世界で実現することを目指して検討をすすめる。我々はクリエーターに近づくという視点で、シェフのクリエイティビティを拡張する目的で、AIとロボティクスを活用することを考えている」(ソニー広報担当者)。

なお、ガストロノミーについては、今年3月に“新しい可能性”としてAI×ロボティクスのプロジェクトを開始していた。

一方で、ソニーグループが抱えるゲーム「PlayStation」、スマートフォン「Xperia」、デジタル一眼カメラ「α」シリーズへの展開などについては、具体的な回答は得られていない。

ソニーは今後、プロジェクトの具現化や研究の推進に向け、世界中からAIリサーチャーやAIエンジニアを招へい・採用していく。

LINEのAI・機械学習の取り組みを一挙紹介〜顔認識入場や電話予約対応AI、不審ユーザ認知など実現

先日のヤフーとの経営統合での記者会見で「AIカンパニーを目指す」と高らかに宣言したLINE。そのほとぼりが冷めぬ中、11月20日に技術者向けカンファレンスLINE DEVELOPER DAY 2019が開催された。

本稿ではKeynoteスピーチ(オープニング・セッション)で発表された、同社のAI・機械学習関連のトピックを中心にお届けする。

事前登録された写真から、タブレットで顔認識と入場登録可能

会場に到着後、まず目を引いたのが入場登録の顔認証システムだ。事前にLINE経由で写真を登録したうえで、受付にあるiPadを覗き込むと、写真データをもとに顔を認識し15秒程度で入場登録を完了できる。

「AIカンパニー」としての位置づけを強調

今回のKeynoteスピーチで特徴的だったのは、2018年に引き続きAI技術そのものにフォーカスした発表がトップを飾ったことだ。スピーチ冒頭でもパク・イビンCTOは、同社のビジョン「LIFE with LINE」に触れ

1. LINEプラットフォームへのさまざまな機能の接続
2. AIを通じた良質な体験を自然な形で提供する

という、同社がよりAI技術へ注力していく方針を示した。

LINE DevDay 2019 Keynote p.5より

LINEのAI技術とノウハウが詰まった 「LINE BRAIN」

スピーチではパクCTOのほか、AI、データ、セキュリティのパートごとに3名が登壇した。「Natural Experience with AI」と題し、同社のAI技術への取り組みを語ったのは砂金(いさご)信一郎さん(同社LINE BRAIN室 室長)。

本パートは今年6月から提供している「LINE BRAIN」の説明から始まった。

LINE BRAINは、同社がさまざまなサービスを提供するうえで培ったAI技術を、他の企業も簡単に利用できる、各種サービスの総称だ。日本語を含むアジア系言語に対応し、各国の文化に合わせた行動データ分析やカスタマイズが可能なことが強み。米国や中国との競合との差別化を図るという。

自ら学習データを作り認識精度を高める「AI OCR」

続いて、LINE BRAINが提供するAI OCR、自然言語処理と動画解析の事例に触れた。

OCRでの文字認識で、LINEは機械学習で自動的に学習データを生成する手法を用いることで、ICDAR(認識技術を競う国際的な大会)で他の参加チームを大きく上回る成績を残した。

自動生成の利用例として、データ自動生成機能を使ったフォント作成への挑戦事例を紹介。

日本語はかな・カタカナ・漢字が混在するため、フォント作成に通常数千字もの手書き文字が必要だ(実際に、過去にインターネットで話題になった「手書き風レポートマシンプロジェクト」の作者はフォント作成のために7000字以上の文字データを入力した)が、同社の自動データ生成機能を使うことで、500字程度でフォントが作成できたという。

――砂金氏
「OCRに限らず、さまざまなAIに応用できるよう、データ生成技術やテスト技術に力を入れ、より高度なAIを実現したいと考えています」

レストラン予約に特化したAI「LINE AiCall」

自然言語処理技術を使った事例として紹介されたのは、レストランへの予約電話対応に特化したAI「LINE AiCall」だ。電話での予約受付と簡単な問い合わせ対応を、すべてAIが対応する。

電話回線の音声を認識する技術と、自然な会話を実現するための音声合成技術に加え、予約のために必要な情報を引き出す会話生成技術を組み合わせているという。

LINE AiCallの実証実験として、11月20日から「俺のGrill&Bakery 大手町」で自動予約受け付けを開始。固定電話からの予約にAIが対応する。

(ネット予約サービスが充実している昨今、「電話予約のニーズは多くないのでは?」という疑問が湧くかも知れないが、別のセッションで「予約の6割以上が、店舗の固定電話で確約する」と発表されている)

――砂金氏
「シンプルな機能であっても、ユーザの役に立つものを作ることが大切だと考えています。研究のための研究ではなく、自然なユーザー体験を実現するAIを目指したい」

具体的な用途は述べられなかったが、スマートスピーカー、AIトーク以外にも応用可能な技術ということだ。

カンファレンスのリアルタイム字幕が実現?自然言語処理を利用した動画解析

自然言語処理を利用した技術として、動画解析技術の進捗も紹介された。

LINE DevDay 2019 Keynote p.32より

動画解析では複数の話者を区別し、いつ誰がどういうテーマを話していたのかを解析することが可能。あわせて音声認識によりキャプションを生成し、その精度は「たまに間違える程度」(砂金氏)だという。

怪しい動きをするユーザーを機械学習で認知

セキュリティのパートでも、機械学習の活用事例としてLINEペイ、LINEコインの還元サービスなどを利用した不正行為を防ぐ取り組みが発表された。

利用者の残高やポイントの利用状況など、さまざまなデータを組み合わせて機械学習することで、全体の取引のデータから、「特徴的な怪しい行動パターン」を見つけだせるという。

LINE DevDay 2019 Keynote p.59より

大量にポイントを入手し、ポイントを一箇所に集めて現金化するという動きや、組織犯罪やマネーロンダリングの疑いがあるアカウントを知ることができる。

機械学習でフェイクニュースを見抜く

同じくセキュリティのパートで、機械学習でフェイクニュースを見抜くサービスも紹介された。

LINE DevDay 2019 Keynote p.62より

台湾のLINEユーザ向けに、ネット上のフェイクニュースを見抜く「ライン訊息査証」を展開。過去のニュースや情報を教師データとして分析し、情報のリンクをLINEアカウントに送るだけで真偽を判定するという。

――市原尚久氏(サイバーセキュリティ室 室長)
「機械学習を積極的に活用していき、セキュリティや社会の課題に挑んでいきます」

テクノロジーは何をもたらす?不動産業界におけるIT活用の今と未来

あらゆる産業の中で特にIT活用が進んでいないといわれている不動産業界。日本の不動産業界は特にIT活用に消極的で、FAXでの住宅情報の受け渡しや、電話での内覧調整が当たり前の状況だ。

厚生労働省の発表によると、日本の不動産業界における労働投入量あたりのIT投資はアメリカの10分の1足らずで、世界的に見ても特異なほどアナログな環境だとわかる。

この現状に、ディープラーニングを用いることで効率的にVR空間を作成し、オンラインで中古物件を内覧できるシステムを開発することで一石を投じようとしている企業が株式会社スタイルポートだ。スタイルポートの前身であるスタイル・リンク株式会社は、不動産投資のアドバイザリーサービスを提供するプロフェッショナルファームとして2011年に設立されたが、現在では40名の社員のうち、7割がエンジニアのIT企業へと変貌を遂げている

プロフェッショナルファームとして成功していたスタイル・リンクがIT企業に転身するまでの経緯から、目下開発中の中古物件のVR空間化サービスを通じてスタイルポートが作り上げようとしている未来像に至るまで、代表取締役で創業者の間所 暁彦氏に話を伺った。

世間がIT化を進めるなか、ティッシュを配り続ける不動産業界に焦りを感じた

1991年から20年以上にわたり、不動産売買の第一線で活躍を続け、スタイルポートの前身であるスタイル・リンクを創業した間所氏。創業当初は不動産投資のアドバイザリーを行っていたというが、いったいどのような経緯で不動産業界特化のIT企業へと経営の軸を移すに至ったのだろうか。

――間所
「不動産業界はみなさんの想像をはるかに超えるほどアナログな業界なんです。依然としてFAXが現役で使われていますし、財閥系の企業ですらいまだに街頭でティッシュ配りを続けています。他の産業がIT活用による営業の効率化に舵を切るなか、不動産業界では泥臭い営業スタイルがもてはやされ続けているのが現状です。

不動産の売買は人生に一度あるかないかという大きな買い物ですから、単純に営業を効率化すればいいというわけでもないですし、個人のつながりを原資に経営している不動産会社が多いので、業界全体でIT化を進めるのが難しいということは理解していました。ですが、IT導入で業界特有の課題を解決していきたいという志に賛同してくれる有志が集まってきてくれたため、IT企業化へと舵を切りました」

IT企業化を決めた間所氏は2015年から新築マンションのVR内覧システム「ROOV」の構想を練り始め、2016年にスタイルポートを設立し本格的に開発を始めた。

VR内覧システムROOV

そして今、構想から4年の時を経て、満を持してサービス提供が開始され、市場から大きな反響を得ている。

――間所
「新築マンションの購入は数千万円からときには数億円という非常に大きな買い物です。そのため、内覧は一人ひとりの顧客が複数回行いますし、1回あたりの内覧は平均で2.5時間程度かかります。

この内覧を効率化したうえで顧客体験を向上させるには、物件を忠実に再現したVR空間を作ることが最適でした」

不動産業界の抱える大きな課題のひとつが、営業の効率化。不動産売買における通常の営業では、顧客が仲介業者を通して内覧を予約し、実際に物件まで赴いたうえで接客が始まる。この一連のフローには営業担当が必ず同伴しなければならないため、営業担当の負担が大きくなりがちだという。

上記の課題を解決するために生まれたROOVは、実際の物件を忠実に再現するだけでなく、ユーザーのライフスタイルに合わせて自由に家具を設置できるほか、VR空間内を動き回れる仕様になっている。

ROOVの導入は以下の4つの利点を生むという。

  • 接客可能人数の増加
    通常2.5時間かかる接客を効率化できるため、販売員の1日あたりの接客可能人数が増加する
  • 物件への集客力向上
    モデルルーム来場者の再来率の向上に繋がる
  • 顧客満足度の向上
    図面などの資料や購入希望とは異なるタイプ、かつ過度に装飾されたモデルルームといった実際の生活が想像しづらい情報ではなく、ユーザーひとりひとりに合わせた空間情報を提供できるため、購入前の顧客満足度が向上する
  • コスト削減
    VR空間をライフスタイルに合わせて自由にアレンジできるため、モデルルームの設営、撤去コストが削減される

    中古物件の売買ハードルを取り払うために

    スタイルポートはCADデータから効率的にVR空間を作成する新築マンション向けのシステムを開発する一方で、中古マンションの内覧向けにも同様のシステムの開発を開始したという。

    中古マンションは新築マンションと違い、物件の間取りに関するデータが残っていない場合が多いが、スタイルポートは画像認識技術とディープラーニングを応用し、VR空間を作り上げようとしている。

    中古物件の写真を撮影し、VR空間上に間取りを生成していく

    しかし、中古物件の内覧システムの構築は間取り図や詳細情報が欠落しているケースが多いため、新築物件用のシステム構築と比較すると難易度は高くなりがちだ。間所氏はなぜ、高難度のプロジェクトに取り組むことを決めたのだろうか。

    ――間所
    中古物件の市場は近年拡大を続けており、首都圏だけでも年間37,000以上の中古マンションが売買されています。ですが、中古物件の売買にかかる内覧にはさまざまなハードルがあります。もし、それらのハードルを無視できるようなシステムがあれば、中古物件流通市場はさらに拡大していくはずです」

    間所氏によると、売買される中古物件の約6割は居住中の物件で、所有者は売却予定の物件に住みながら内覧を受け入れる必要がある。そのため、所有者のプライバシーを守りながら売却を進めることは困難だという。さらに、所有者は休日を返上し、内覧者の対応をしなければならないため、日常生活への負担も大きい。他にも、購入検討者は生活感に溢れた空間から家具がない空間を想像し、検討を進めなければならないという、購入検討者が感じるハードルも存在している。

    上記のような売買ハードルを取り去るのに、仮想空間での内覧は現実的な選択肢となる。だが、中古物件のVR空間を構築するために必要なデータを補完する画像認識モデルを作り上げるには、膨大な画像データとそれを素早く処理するための高速演算リソースが必要になってくる。

    中古マンションは新築マンションと比べて取引あたりにかけられるコストが低いため、開発におけるコスト削減が肝要になるが、スタイルポートは自社で保有していた中古物件の画像データとGMOインターネット株式会社が提供しているNVIDIA®社の「Tesla® V100」を採用し、ディープラーニングに最適な高速演算リソースを提供する「GPUクラウド byGMO」を利用することで開発コストを抑えながら開発に挑んでいるという。

    ――間所
    「中古物件の画像データは他の事業を展開しようと考えていた際に収集していました。そのため、サーバーコストが開発における大きなネックでした。

    GPUサーバーの確保に向けて、さまざまな大手企業のクラウドサーバーを検討しましたが、どれも従量課金で、コストが莫大に膨れ上がってしまう可能性がありました。GMOインターネットの「GPUクラウド byGMO」はコストが低いうえに月額課金のため、安定した事業計画が立てられることから採用に至りました。

    この選択により、現時点では開発途中の段階ですが、計画通りのコストで開発を進められています」

    新規事業開発では、コスト面が問題となり、プロジェクトが頓挫するケースが多々見られるが、スタイルポートはGPUクラウド byGMOを利用することで、円滑にプロジェクトを進められているという。

    居住者の生活インフラを目指す。売買だけでない可能性の模索

    鋭意開発が進む中古物件のVR内覧システムだが、スタイルポートが考える不動産×ITの未来は売買の領域に止まらない。

    ――間所
    「現在は、物件売買の省力化とユーザー体験の向上に向けた開発を進めていますが、私たちが目指す究極のゴールは居住者の生活インフラの構築です。

    家具や雑貨などを含めて自宅を完全にコピーした仮想空間を構築し、自宅内のあらゆる情報にオンラインでアクセスできるようになれば、自宅の不具合をデバイス上で確認し処理できるようになることで、生活の質は劇的に向上するはずです。

    居住者にとって、なくてはならない存在を目指し、開発を進めていきます」

    AIの活⽤事例を探せる検索プラットフォーム「e.g.」を発表します

    レッジは、AI活用事例の検索プラットフォーム「e.g.(イージー)」を開発し、Open-β版を本日11月18日にリリースしました。

    2020年初頭に正式版としてのサービス提供開始を予定しています。

    「e.g.」とは?

    e.g.は国内外のAI活用事例を網羅的に集め、分かりやすく解説した検索プラットフォームです。ユーザーは事例を無料で検索・閲覧・保存することができ、事例掲載企業への問い合わせもe.g.上で可能です。

    事例は大きく業界別、用途別、技術別の3つの要素で絞り込むことができ、ユーザーは求めている事例に短時間でたどり着くことができます。

    e.g.の特徴

    • 利用料無料
    • 事例数国内1位(※自社調べ、400件)
    • 業界・用途・技術の掛け合わせで検索可能
    • 事例掲載企業への問い合わせもe.g.上から可能(※許可をいただいた一部企業様のみ)
    • 気に入った事例を保存できるClip機能
    • 事例ページをそのまま共有できるシェアボタン

    AI導入検討層が「事例を探せない」という問題

    ビジネスにおけるAI導入が進んでいます。しかし、矢野経済研究所の調査によると、国内民間企業のAI導入率は2.9%と、未だ多くの企業がAIの恩恵を受けているとは言えない状況です。

    レッジでは、これまでのAIコンサルティング事業、メディアやイベント運営を通して、AI導入検討企業の方々から、以下のような質問を多く受けてきました。

    • AIで何ができるのか分からない。どうやって勉強すればいいのか?
    • ◯◯業界でのAI事例はどういったものがありますか?
    • 良いベンダー知りませんか?

    しかし、いずれも基礎的なリテラシーを持っていなければ、検索して解決するのも難しく、「何がわからないのかわからない」状態となってしまいます。

    企業がAIを自社のビジネスに導入する際、必ずと言っていいほど、まずは先行する他社の事例から探し始めるのが常です。

    しかし、これまでAI事例はそもそも世に出ている数が少なく、また網羅されていないため、担当者はメディアを見たり、セミナーに参加したりすることでしか事例を探すことができませんでした。

    個別で事例を見つけたとしても、ひとつひとつが難解なため、読み解いていくのが難しいといった問題や、ひとつのサイトでまとめて閲覧することができないために、ひとつのフォーマットで読みたいのにも関わらず、別々のフォーマットで閲覧せざるを得ない、またはひとつのフォーマットに手作業で統一し、それを会議で閲覧するなどの手間がかかっていました。

    そのようなニーズを踏まえ、AI活用事例がひとつのフォーマットに統一されており、かつ検索作業もひとつのプラットフォーム上で行えるようにする。かつ産業・用途・技術の3つの軸で探せるようにすれば、AI担当者の負担は大きく軽減するのではないか。そう考え、e.g.の開発に至りました。

    e.g.の名前の由来

    「e.g.」という名前は、ラテン語で「例えば」「例を挙げると」を意味するexempli gratia と、“簡単に検索ができる”ということで、英語のeasyをかけています。

    今、AIでどんなことができるのかを事例を通して知る。事例を知ることで、自社のビジネスにどう活かすのかを考え、一歩目を踏み出す。その一歩目を踏み出すサポートをするサービスです。

    事例掲載にご協力いただけるパートナーを募集しています

    今後、世界中でますますAIをビジネスに活用する企業が増えると予想されます。現在の掲載事例数は400ですが、AI活用事例の増加に伴い、事例掲載数もさらに増加させ、AI導入を検討している企業をサポートしていきます。

    また、AIプロジェクトを推進可能な企業やAIツールなど、AIプロジェクトを一歩進める一助となる情報を整理し、データベースをより強固にしていく予定です。

    e.g.への事例掲載や、事例を踏まえたユーザーからのAI活⽤の相談に乗っていただけるパートナーも随時募集中です。詳しくはこちらからお問い合わせください。

    スカイマティクスが博報堂DY系から追加調達、総額約10億円へ──週間AI業界資金調達ニュース

    Ledge.aiでは、AI業界の資金調達ニュースを毎週金曜日にお届けする。11月11日〜11月15日のニュースは以下の通り。

    先週の記事はこちらから。

    スカイマティクス、追加資金調達により総額約10億円の資金調達を完了

    調達額
    約1億円(累計10億円)


    調達先
    HAKUHODO DY FUTURE DESIGN FUND
    スカイマティクスは、産業用リモートセンシングサービスの企画・開発・販売を行う企業。独自の画像処理解析技術・AI技術・GIS技術をコアとし、農業、建設・測量、点検、防災分野向けに業務効率化や意思決定に役立つ、ドローンを活かすためのリモートセンシングサービスをリリースしている。

    関連記事:「勘頼みは終わり」キャベツ農家の出荷量をドローンとAIで予測、その舞台裏

    今回の到達により、今シリーズの資金調達額は10/1発表の資金調達と合わせて総額約10億円となる。調達資金の使途として、引き続き出資企業・ファンドと連携。クラウドサービスの製品開発体制と販売体制強化により、リモートセンシングサービスの実用化と普及を目指していくという。

    Source:PR TIMES

    音声認識とは|最新技術や基礎知識・仕組み・現在の事例を解説

    ディープラーニングの登場やスマートフォンへの搭載により、急速に普及したAI(人工知能)の技術に「音声認識」があります。本稿では、「音声認識」の定義から仕組み、事例、技術動向について詳しく解説します。

    音声認識とは

    Photo by Kristin Baldeschwiler on Pixabay
    音声認識とは、コンピュータにより音声データをテキストデータに変換する技術です。

    人間が言葉をそのまま理解するのに対し、コンピュータは、音響モデルや言語モデルを用いて音声を解析し、認識します。

    音声認識の仕組み


    Photo by geralt on Pixabay
    音声認識の技術は、具体的に「音響分析」「音響モデル」「発音辞書」「言語モデル」の4つの過程を経て、コンピュータが認識します。

    音響分析

    音響分析では、入力された音声データの音の強弱や周波数、音と音の間隔、時系列などさままな特徴量を抽出し、音響モデルで扱いやすい(コンピュータが認識しやすい)データに変換します。

    Ledge.ai編集部にて作成

    音響モデル

    音響モデルでは、音響モデル分析により抽出された特徴量が、どの記号(音素や単語)にどれほど近いのかを学習したパターンと照らし合わせ、整合率を計算します。

    たとえば、「ありがとう」と音声を入力した場合、音声分析により抽出された特徴量を用いて「A-R-I-G-A-T-O-U」という音素になるように、音声を正しい文字にマッチングさせます。

    発音辞書

    音声の最小単位の”音素”ごとにモデル化されている膨大なデータベースから音の組み合わせをピックアップし、「単語」として認識させるのが発音辞書です。

    たとえば、
    ・「A-R-I-G-A-T-O-U」を「A-RI-GA-TO-U」(ありがとう)
    ・「G-O-M-E-N-N-E」を「GO-ME-N-NE」(ごめんね)
    のように、音の組み合わせを「単語化」し、音声モデルと言語モデルを結びつける役割をします。

    言語モデル

    言語モデルでは、膨大な量のデータから単語のつながりを予測判定し、より正確な文章を組み立てます。あらかじめ蓄積したデータから使用する単語の出現率を算出し、単語を文章化します。

    言語モデルで主に利用されるモデルが「隠れマルコフモデル」です。これは、ある文字列に続く直後の文字の出現しやすさをパターン化し、それらの出現確率を定義しています。
    Ledge.ai編集部にて作成
    上図のように、膨大なデータから単語を連結させる確率を出し、文脈が正しくなるように単語を文章化します。

    ディープラーニングで音声認識はどう変わったのか

    ディープラーニングとは、データから自動で特徴を抽出し分類や予測を行う技術であり、機械学習の一種です。

    ディープラーニングの技術を用いた音声認識では、「音響モデル」から「言語モデル」までのプロセスが1つのニューラルネットワークモデルで実装されています。

    たとえば、言語モデルに「私は学校へ」と入力すると、次に出現する可能性が高い「行く」「行かない」などの単語を自動で予測します。

    ディープラーニングの登場によって膨大な情報を処理できるようになり、音声認識の著しい向上につながりました。

    音声認識と自然言語処理

    Photo on max pixel

    音声認識とは、音声情報と言語情報を組み合わせることで、音声を文字に変換する技術です。

    故に、音声からテキストを生成するところまでの機能であり、テキストから意味を抽出し、目的に応じた作業を行う部分までは含まれていません。

    この機能は「自然言語処理」により担われています。

    自然言語処理とは、人間の用いるような自然文を対象とした、言葉や文章のもつ意味を認識、処理する技術です。

    音声認識が使用されている事例

    Photo on max pixel
    音声認識はさまざまなビジネスやサービスに導入されています。

    会議の議事録や営業日報などの記録を効率化する「ProVoXT」

    ビジネスシーンで会議の議事録や営業日報を記録する際、録音音声を何度も聞き返して文字起こしするには多大な時間と労力を要します。

    こうした手間を解決してくれるのがクラウド型議事録作成支援サービス「ProVoXT」です。
    録音した音声をクラウド上へアップロードすることでAI(人工知能)が音声認識を開始し、自動的に文字起こしが行われるため、通常であれば数時間かかる作業を十数分に短縮します。

    参照記事:

    英語のスピーキング評価を自動で行えるAI 「CHIVOX」

    CHIVOXは、アプリに向かって英語を話すことで、正しい発音かどうかをチェックしてくれるサービスです。中国が開発した英語スピーキング評価AI技術で、既に世界132ヶ国で導入されており、日本でも利用されています。

    米式/英式英語の発音基準との比較のほか、発話が流暢かどうか、なども評価できます。また、チャイルドモード、ノーマルモード、ネイティブモードという3種類のモードを持っていることで、幅広い英語力に対応できる強みを持っています。

    参照記事

    音声認識で感情と元気度を解析するAI「Empath」

    Empathは、音声の物理的特徴量を解析することで、言語に依存せず、「喜び」
    「平常」「怒り」「悲しみ」「元気度」を解析するAIです。東日本大震災後、ボランティアのメンタルヘルスケアのために生まれ、アラブ首長国連邦内務省に正式に採用された実績を持ちます。

    現在では、コールセンターのシステムとして、顧客とオペレータの感情を可視化するほか、ロボットへ搭載し、人との自然なコミュニケーションの研究にも導入されています。

    参照記事:

    クラウド上のコールセンター「Amazon Connect」

    「Amazon Connect」はクラウド上にコールセンターを作成するサービスです。自動音声応答やその文言編集、通話の自動録音などの機能を備えています。

    音声認識技術は音声からテキストへの文字起こしや、多言語翻訳に活用されています。

    参照記事:

    ほかにも多くのサービスに音声認識は使用されています。

    参照記事:

    音声認識の普及と課題

    Photo by mohamed hassan on Pixhere

    AppleのiOSに搭載されている「Siri」やAndroid OSの「Googleアシスタント」など音声認識サービスは生活にも普及しています。リリースされた当初と比べ、音声認識の技術も格段に上がり、今では検索エンジン上でも欠かせない存在となりました。

    一方、こうした音声認識サービスの日本での普及率はあまり高くありません。2018年4月iProspectが行った調査では、「過去6か月以内にスマホの音声認識機能を使用したか」という問いに対し、「使用した」人の平均62%、インド(82%)、中国(77%)と半数を超えるなか、日本は40%と諸外国と比べて低い普及率でした。

    音声認識は、ビジネスや日常生活で大きく活用されています。私たちは日々進化する技術革新を観察し、AI(人工知能)を積極的に受け入れていくことが必要なのではないでしょうか。

    AIビジネスのリアルがここにある。FRONTEO主催「AI Business Innovation Forum」が11/22に開催

    FRONTEO社が主催するビジネスカンファレンス「AI Business Innovation Forum 2019」が11月22日に開催される。参加費無料、AIのビジネス活用をテーマとしたプライベートカンファレンスだ。

    「AI Business Innovation Forum 2019」とは?

    AIのビジネス利用が本格化する一方で、PoC(概念実証)から先に進めず、プロジェクトが中断するケースが増えている。ビジネスを通じて発生するデータを、AIでどう活かせば良いのか分からない企業も多く存在する。

    「AI Business Innovation Forum 2019」では、そのような課題を解決する助けとなるために、幅広い分野の有識者やすでにAIを役立てているユーザー企業が、データとAIを活かすアプローチを語る。

    登壇者

    ゲスト基調講演として「『なぜこの商品は売れるのか』をAIに聞きますか?」と題し、東京大学大学院 大澤幸生教授が登壇する。AIビジネスセッションでは、FRONTEOの2つの自然言語処理AIエンジン「KIBIT」と「Concept Encoder」の最新テクノロジーを紹介。AIを活用し業務改革や新たな価値の創出を実現するユーザー企業も、実例や取り組みを紹介する。

    基調講演「なぜこの商品は売れるのか」をAIに聞きますか?

    大澤幸生氏
    東京大学大学院工学系研究科 システム創成学科 教授


    1995年に東京大学工学研究科で工学博士を取得後、大阪大学基礎工学研究科助手、筑波大学ビジネス科学研究科助教授、東京大学情報理工学研究科特任助教授、同大学院工学系研究科システム創成学専攻の准教授などを経て2009年7月より同教授。知能情報学とデザイン学、認知科学の境界にあるチャンス発見学およびデータ市場設計学を自ら創始し国際会議や産学WSなどを開催。IEEEのデータマイニング国際会議(ICDM)においてデータ市場の観点で2013年からMarket of Dataなどのワークショップを成功に導く。Chance Discovery (Springer, 2003), Innovators’Marketplace (Springer 2017),データ市場(近代科学社2017)を含む編著書24冊の他、雑誌論文100件余、国際会議論文約200件、産学両界での招待講演多数。

    【AIテクノロジー】Deep Dive Domain ー AIを利用した実業務の調理法 ー

    武田秀樹氏
    株式会社 FRONTEO 取締役CTO 行動情報科学研究所 所長


    90年代後半のインターネット黎明期に、Webシステムのディレクター・エンジニアとしてキャリアをスタート。フロントエンドからインフラまで幅広いシステム構築に従事。2002年からは複数のベンチャー企業で自然言語処理(NLP)を応用したデータマイニング技術の開発に従事しながら、その成果の事業化に取り組む。2009年FRONTEO(当時UBIC)に入社。NLPを軸とする人工知能関連技術の研究・開発を主導し、人工知能エンジン「KIBIT(キビット)」を開発。米国のリーガル分野で実績を上げ、ビジネスインテリジェンスをはじめとする他分野へと適用範囲を拡大し、次々と製品化を実現している。NHKなどメディアへの出演も多数。

    【金融】AI x RPA活用によるコンプライアンス業務の新しいあり方 ー イオン銀行流!お客さまとの面談記録モニタリングの実践効果 ー

    小杉剛雄氏
    株式会社イオン銀行 法務・コンプライアンス部 統括マネージャー


    地方銀行に在籍し、約10年間営業店にてリテール・法人営業および融資業務に従事、その後、5年間商品開発部門にて投資信託、保険、外貨預金の商品開発を担当。その間、投資信託システムの導入(窓販システム、投信インターネットバンキング導入などに携わる。2007年1月、イオンの新銀行設立に賛同し、イオン総合金融準備に入社、イオン銀行設立に向けた準備に携わる。商品開発部門にて、投資信託の商品導入、プロモーション、店舗事務フローの構築、投資信託システムの導入(窓販システム及び投信インターネットバンキング)、HP構築など主要業務に携わる。その後、法務・コンプライアンス部にて、運用商品に関するコンプライアンス業務のほか、コンプライアンス全般の企画を行い、AIとRPAを活用した業務改革を推進している。

    【リーガル】調査対象になった時どうやって生き残るか ー AIを使用した監査手法 ー

    井上朗氏
    ベーカー&マッケンジー法律事務所
    パートナー/ニューヨーク州弁護士/法学博士


    20年以上にわたり、クロスボーダー性の高い独占禁止法・競争法案件に一貫して対応してきており、これら分野では国内外の企業及び政府関係者から高い評価を受けている。米国司法省との司法取引における日本企業のDefense Counsel経験は15年以上に及び、日本の刑事事件において無罪判決を取得した経験も有する。日本企業を代理した国際カルテル案件のLead Counselを10年以上にわたって務め、日本経済新聞社弁護士ランキング2018年(国際経済法・通商法分野)第9位。反トラスト法・競争法分野の論文97本以上、著書10冊以上。代表作に『EU競争法の手続と実務』(民事法研究会)等。

    【金融】AIを活用した証券会社の働き方改革

    中村哲也氏
    SMBC日興証券株式会社
    システム統括部 ITイノベーション推進室 兼 経営企画部 室長

    【人事】AIと人の協業による定着率の向上

    菊池雅也氏
    株式会社ソラスト 人事総務本部 HRtech推進部 部長


    マーケティング会社及びコンサルティング会社に在籍し、経営戦略・事業戦略・マーケティング戦略の策定支援、新事業・新商品の開発支援等に従事。製造業、小売業、サービス業、情報通信業、等の幅広い分野のビジネスに携わる。その後、事業会社に籍を移し、事業開発・サービス開発に従事した後、2016年より株式会社ソラストに入社。採用にイノベーションを起こすため、科学的かつデジタルなアプローチを推進。近年では活動の幅を広げ、HR領域におけるデジタルトランスフォーメーションの実現に向けて組織を設立し、戦略型人事への変革を推進している。

    【ヘルスケア】創薬研究上の課題と同シーンにおけるAI介入の余地 ー 武田薬品工業 × FRONTEO クロストーク ー

    上口英則氏
    武田薬品工業株式会社 リサーチ ニューロ 創薬ユニット
    イノベーティブバイオロジー研究所 リサーチマネージャー


    武田薬品工業株式会社入社後、約10年間を薬物動態研究に、その後10年以上トランスレーショナルリサーチに従事。この間質量分析をコアとした高感度ハイスループット薬物定量プラットフォーム(PF)、メタボロミクス、リピドミクス評価PFの構築を行う。これらPFを用いて創薬プロジェクトにおける臨床分子(遺伝子、タンパク質、生体低分子)バイオマーカー候補の探索、およびこれらバイオマーカーの評価系の構築に携わってきた。中枢疾患領域を中心とした各種大学、医療機関との共同研究を通し、ゲノム、臨床情報、各種オミクスの解析による疾患マーカー、患者層別化マーカー等、疾患理解のための探索研究をリードしている。

    セッションタイムテーブル

    13:30–14:00 開場
    14:00–14:10 オープニングスピーチ
    守本正宏氏
    株式会社FRONTEO 代表取締役社長
    14:10-14:40 ゲスト基調講演
    「なぜこの商品は売れるのか」をAIに聞きますか?
    東京大学大学院工学系研究科 システム創成学科 教授 大澤幸生氏
    14:40-15:00 Deep Dive Domain ~ AIを利用した実業務の調理法 ~  
    株式会社FRONTEO 取締役CTO 行動情報科学研究所 所長 武田秀樹氏
    15:00-15:25 AI x RPA活用によるコンプライアンス業務の新しいあり方  
    ~ イオン銀行流!お客さまとの面談記録モニタリングの実践効果 ~
    株式会社イオン銀行 法務・コンプライアンス部 統括マネージャー 小杉剛雄氏
    15:25-15:55 調査対象になった時どうやって生き残るか ~ AIを使用した監査手法 ~
    ベーカー&マッケンジー法律事務所
    パートナー/ニューヨーク州弁護士/法学博士 井上朗弁護士
    15:55–16:10 ブレイク
    16:10-16:35 AIを活用した証券会社の働き方改革 
    SMBC日興証券株式会社
    システム統合部 ITイノベーション推進室 兼 経営企画部 室長 中村哲也氏
    16:35-17:00 AIと人の協業による定着率の向上
    株式会社ソラスト 人事総務本部 HRtech推進部 部長 菊池 雅也 氏
    17:00-17:40 創薬研究上の課題と同シーンにおけるAI介入の余地 
    ~ 武田薬品工業 × FRONTEO クロストーク ~
    武田薬品工業株式会社 リサーチ ニューロ 創薬ユニット
    イノベーティブバイオロジー研究所 リサーチマネージャー 上口英則氏

    17:40–17:55 ブレイク
    17:55–18:00 カクテルパーティー
    乾杯挨拶
    手塚清二氏
    株式会社FRONTEO 執行役員
    18:00–18:55 レセプション
    ネットワーキング
    18:55–19:00 クロージングスピーチ
    山本麻理氏
    株式会社 FRONTEO 執行役員
    19:00(予定) 閉会

    イベント概要

    主催 株式会社FRONTEO
    日程 2019年11月22日(金) 14:00 – 17:40 (カンファレンス後レセプションあり)
    会場 住友不動産六本木通ビルB1F ベルサール六本木(東京都港区六本木7-18-18)
    参加費 無料
    URL https://www.fronteo-ai-forum.com/

    >>申込みはこちら

    AI TALK NIGHT vol.13 開催!テーマは『自然言語処理の活用トレンドとビジネス実装の勘所』

    レッジがAIのスペシャリストを招いて開催する「AI TALK NIGHT」。第13回開催のお知らせです。

    AI TALK NIGHTとは?
    成長著しいAIソリューションを、どうやって自社の業務やサービスに活かせばいいのか?「AI TALK NIGHT」は、そんなAI導入を検討している企業がもつ悩みを、AIのスペシャリストのゲストに直接ぶつけられる無料のトークイベントです。様々な会社のイベントスペースで定期開催しています。過去のイベントレポートは下記から。
    【Microsoft×電通】使えるAIを作るためには「仮説」と「現場の声」が不可欠
    「PoC、ぶっちゃけいくら?」製造業とAIの“リアル”をベンダー3社が語る

    第13回目となる今回のテーマは『自然言語処理の活用トレンドとビジネス実装の勘所』です。

    近年、AIやデータ活用を推進するソリューションは凄まじい勢いで成長を続けています。自然言語処理の分野においても、BERTなどの誕生により文脈理解の精度が上がるなど、技術への期待が高まっています。

    そこで本イベントでは、近年の自然言語処理の活用トレンドや事例から学べるAI活用の勘所を、トークセッション形式でお伝えします。AI活用に関するヒントを得られる機会となっております。

    参加費は無料となっておりますので、ぜひお気軽にお申込みください。

    登壇者紹介

    ライオンブリッジジャパン株式会社 AI事業部長
    Cedric Wagrez (セドリック・ヴァグレ)

    フランス出身。開発ツールの会社(インフラジスティックス)、オンラインプラットフォーム(Gree)、受託開発の会社を含めて、日本のIT企業で15年以上の経歴を持つ元エンジニア・プロジェクトマネージャー。2016年より、オペレーション部長として株式会社Gengoへ参画し、2018年にはGengoがLionbridgeの子会社化。現在はLionbridgeの日本AI事業部長に就任。海外のお客様との取引経験が豊富で、日本にもベストプラクティスの知識や、革新的なAI導入の支援をすることにに関心を持っている。

    ベイシス・テクノロジー株式会社 代表取締役
    長谷川 純一

    日本支社の代表取締役を務めるとともに、ベイシス・テクノロジーのアジア地域の事業戦略、営業、マーケティングを担当。これまでも新しい市場や事業モデルの創出を積極的に追及してきており、最近では、インドネシアを始めとする開発途上国での金融包摂を推進するスタートアップの起業。それ以前は、eコマースの黎明期にアマゾンの日本事業を成功裡にスタート、PeopleSoft/Oracle でERPシステムの開発および困難な導入プロジェクトの完遂、PowerBuilderを日本市場に展開しクライアント/サーバー コンピューティングの浸透に貢献。

    株式会社レッジ 執行役員 / Ledge.ai編集長
    飯野 希(モデレーター)

    株式会社レッジの執行役員兼Ledge.ai編集長。2016年3月に株式会社ビットエーへ入社。AI特化型メディア「BITAデジマラボ(現Ledge.ai)」を立ち上げ、編集長に就任し、日本最大級のAIメディアに成長させる。AIコンサルティング事業の立ち上げも行い、2017年10月にはBITAデジマラボの部隊を株式会社レッジとして子会社化。

    申込みはこちらから

    お申込みはこちらから。参加費は無料です。定員を超えて以降のお申し込みは、抽選とさせていただきますので、お早めのお申し込みをお願いいたします。

    開催概要

    イベント名 AI TALK NIGHT vol.13 『自然言語処理の活用トレンドとビジネス実装の勘所』
    開催場所 GMOインターネット株式会社「GMO Yours」
    (東京都渋谷区桜丘町26番1号)
    開催日時 2019年11月26日.Tue 19:00~21:00
    登壇者 <スピーカー>
    セドリック・ヴァグレ(ライオンブリッジジャパン株式会社 AI事業部長)
    長谷川 純一(ベイシス・テクノロジー株式会社 代表取締役)
    <モデレーター>
    飯野 希(株式会社レッジ 執行役員 / Ledge.ai編集長)
    定員 120名
    参加費 無料
    タイムライン 18時30分 参加者受付開始
    19時00分 開始 / 登壇者紹介
    19時05分 基調講演 – ライオンブリッジジャパン株式会社 セドリック氏
    19時30分 パネルディスカッション『自然言語処理の活用トレンドとビジネス実装の勘所』
    20時15分 質疑応答
    20時20分 懇親会
    21時00分 終了
    申し込み方法 お申し込みフォームより受け付けております。

    協賛企業のご紹介

    今回のイベントは、GMOインターネット株式会社より協賛いただいております。
    GPUクラウドは、NVIDIA社の最新GPU「Tesla® V100」と、高速インターコネクト「InfiniBand EDR」および分散ファイルシステム「Lustre (ラスター) 」を組み合わせ、機械学習やディープラーニングに求められる高速演算リソースをクラウド環境で提供する、GMOインターネットの最新クラウドサーバーです。
    GPUクラウドについて

    オムロンが2つのAI技術を新たに発表。「欠陥抽出」と「機械学習モデル統合」

    オムロンは11月13日記者発表会を開催し、新たなAI技術を2つ発表した。外見検査における欠陥抽出AIと、異なる場所に存在するデータを集約することなく、機械学習モデルの統合によってAIの性能を高める技術だ。

    関連記事:「AIは人間と異なる知性と認識すべき」オムロンサイニックエックス設立1年、代表が語る「人と機械の融和」に必要なこと

    人の感性・熟練者の経験を再現した欠陥抽出AI

    外観検査については、熟練の検査員の検査手法を再現した欠陥抽出AIと、これらを既存の画像処理システムに搭載できるシステムを開発した。オムロンが30年以上にわたって外観検査の現場で培った検査内容に対する知見と画像処理技術により、手持ちの画像データから学習すべき画像を自動判断。誰でも数分で最適な学習を実現するという。

    AIモデルの軽量化も実現し、通常のPCのような限られた計算リソースの中でも作動できるため、専門知識持ったエンジニアがいなくともAI開発が可能という。

    ▲欠陥抽出AIの活用事例。出典:オムロンプレスリリースより

    開発背景として、近年の熟練技能者の不足や人件費の高騰が深刻化しており、製造業では属人化していた搬送、組立、検査工程などの自動化が急務となっていいることが挙げられる。

    製品の外観検査では、さまざまな色や大きさのキズの判別や、良品自体が大きくばらつく場合の欠陥品の判定など、経験豊富な熟練技能者の感性と経験が必要となる。

    そのため、人と同じように対象物の特徴を認識でき、判断基準を自動で学習できるAIに期待が高まっている。しかし、実用化においては以下のような課題があるため、導入が進んでいないのが現状だ。

    • 膨大な画像データを用意し学習させる必要
    • AIエンジニアの確保と特別なAIハードウェアを現場に設置する必要
    ――竹川肇氏(オムロン株式会社 インダストリアルオートメーションビジネスカンパニー 商品事業本部 センサ事業部 第2開発部 部長)
    「画像処理システムの性能を引き出すにも、良品と不良品を見分けるしきい値をどこに置くかなどのエンジニアリング力が必要とされるため、AI導入後も職人芸によって省人化が進んでいない現状がある」

    本システムはオムロンの画像処理システム「FHシリーズ」に搭載され、2020年春に発売予定。価格や提供形態などはまだ未定だという。また、認識できる品目は金属部品など、現状限られた品目のみで、今後さらに品目を増やしていくという。

    異なる場所にあるデータを集約せずにモデルの性能を高める「Decentralized X」

    次に発表された非集中学習技術は、AIの学習に必要なデータを1箇所に集約せず、機械学習モデルの統合によってAIの性能を高める「Decentralized X」という技術だ。Googleの「Federated Learning」と近いかもしれない。

    関連記事:キーワードはオンデバイス。「Google I/O 2019」で発表されたAI関連注目トピックまとめ

    AIの高性能化には、十分な量のデータを一か所に集約し、学習させることが必要だ。しかし、さまざまな場所に偏在しているデータを入手・統合するためには多大なコストや工数が必要となる。加えて、営業秘密やプライバシーなどの制約により十分な量のデータを確保できないなどの課題もある。

    ――米谷竜氏(オムロン サイニックエックス株式会社 シニアリサーチャー)
    「AIのインテリジェントな処理は、処理が複雑になるほど必要なデータも増える。そのためデータを収集し統合する必要があるが、多くの事業会社では統合されていないのでそこに着目した」

    また機械学習モデルにはさまざまな構造があり、異なる機械学習モデル同士をその特性を損なわずに統合することはこれまで技術的に困難だった。

    Decentralized Xは、さまざまな現場で学習したAIの機械学習モデル同士を統合することによって、AIの性能を高める。異なる機械学習モデルでも統合可能な独自のアルゴリズムを開発し、すべてのデータを集約して機械学習を行った場合と同等性能のAIを開発できるという。

    ▲「Decentralized X」の仕組み。出典:オムロンプレスリリースより

    「Decentralized X」技術の主な特長

    • 個々のプレーヤーがデータを少しずつ所有している非集中条件下においても、データを集約して機械学習を行った場合と同等性能のAIを構築可能
      事業者が十分な量のデータを持たない場合など、これまでAIの導入効果が上がらなかった領域で、よりAIを活用しやすい環境を提供。データではなく、機械学習モデルを持ち寄ることで通信コストを低減可能

    • AIのアーキテクチャーを限定せず、非集中条件下で学習可能
      機械学習モデルの全パラメータを共有するわけではないので、アーキテクチャーを限定することなく学習でき、たとえば処理速度を優先した軽量モデルなど、それぞれのAIの個性を維持できる

    • 学習時に個々の事業者がお互いにデータを公開することなく、秘匿性を高めることが可能
      ほかの事業者に公開できないデータを扱う場合にも、「Decentralized X」とセキュリティ・プライバシー保護技術を組み合わせることで、秘匿性の高い状態でAIを構築できる

    ビッグデータを収集できる巨大プラットフォームを持たない中小企業でも、各々の機械学習モデルを持ち寄って統合することで、各事業者のAIの性能を高め、AIによる現場課題の解決を加速することが可能になるという。

    ▲「Decentralized X」を使った課題解決の例

    また、製造業の品質情報や医療現場のバイタルデータなど、秘匿性が高いデータを公開せずに、各事業者のAIの性能を高めるようなコラボレーションが実現しやすくなる。

    現在はDecentralized Xを活用するパートナーを募集中で、パートナーが見つかり次第、技術検証のフェーズに移行していくという。

    データ活用をより身近に。Prediction Oneで体重の変化を予測してみる

    【PR】この記事はソニーネットワークコミュニケーションズ株式会社のスポンサードコンテンツです。

    ビジネスにおけるデータ活用の重要性が声高に叫ばれる昨今、予測分析による業務の効率化に注目が集まっている。

    しかし、データ活用を未だに進めていない企業や、データとの関わりが薄い部署で働く個人にとって、予測分析がどんなデータをもとに、どのような手順で進められ、結果的にどういった示唆を生むのか見当もつかない人も多いだろう。

    そこで今回は、ソニーネットワークコミュニケーションズが当面の間、無料で提供する予測分析ツール「Prediction One」を使用し、個人で準備可能なデータから日常生活を豊かにする示唆を導き出せるか検証する。

    ソニーネットワークコミュニケーションズが提供する「Prediction One」とは

    Prediction Oneは、ソニーネットワークコミュニケーションズが当面の間、無料で提供する予測分析ツールだ。

    データさえ揃えられれば、サービスの解約率の予測や、工場機械の故障予測商品の市場価格推移の予測など、さまざまな問題に対する予測分析が可能となる点が強みで、業界、職種問わず活用が見込めるツールとなっている。

    使い方はいたってシンプルで、表計算ソフトなどでまとめたデータをCSVファイルとして書き出し、予測したい変数を選択しモデル作成をクリックするだけだ。

    Prediction Oneには10種類以上のアルゴリズムが組み込まれており、読み込ませたデータセットに応じて、各アルゴリズムによる予測モデルを作成し、もっとも予測精度が高いモデルを表示してくれる。

    日常生活で手に入るデータを分析し、新たな価値を生み出す

    本記事では、予測分析をより身近に感じてもらうため、日常生活で取得可能な食事や運動、摂取カロリーなどの変数から、体重の変化を予測。どの変数が体重の変化に対してもっとも影響が大きいのか導き出す。

    使用するデータは、データサイエンティスト向けのプラットフォーム「Kaggle」にアップロードされている、『2018 calorie, exercise and weight changes』で、データに含まれる変数は以下の通り。

    • Date:計測をおこなった日付
    • Stone, Pounds, Ounces:体重の計測結果(Stone = 約6.35kg, Pounds = 約453g, Ounces = 約28.3g)
    • weight_oz:体重をオンスのみで表した際の総重量
    • calories:各日付における摂取カロリーの概算(カロリーは記録の簡易化を目的に、摂取した食材ごとの栄養情報をもとに、50キロカロリー単位で切り上げし計測。栄養情報が手に入らない場合、カロリーは過去の経験と推測をもとに入力している)
    • cals_per_oz:摂取カロリーをオンス単位で表記した体重で割った数値
    • five_donuts:食事のメインが5つのジャムドーナツだった日(day where main meal was bag of five jam donuts, 1 = TRUE, 0 = FALSE)
    • walk:20分以上の自発的なウォーキングをおこなった日 1 = TRUE, 0 = FALSE
    • run:2.5マイル(約4キロ)以上のランニングをおこなった日 1 = TRUE, 0 = FALSE
    • wine: ラージグラス一杯(250ml)以上のワインを摂取した日 1 = TRUE, 0 = FALSE
    • prot: 高プロテインな食事をした日 1 = TRUE, 0 = FALSE
    • weight: ウェイトトレーニングをおこなった期間(ウェイトトレーニングの休養日もTRUEとして含む) 1 = TRUE, 0 = FALSE
    • change: オンス単位での体重の変化

    Prediction Oneでは、データに含まれる変数の中から1つを選び、その残りの変数から選択した変数の値を予測することができる。

    この検証では、変数「change」を予測対象として進める。

    検証をおこなう手順は以下の通り。

    1. Prediction Oneをインストールする
    2. データセットを分割する
    3. Prediction Oneを起動し、新規プロジェクトを作成する
    4. 変数を調整し、モデルを作成する
    5. 予測モデルを検証する

    STEP1:Prediction Oneをインストールする

    まず、Prediction Oneのダウンロードから始めていく。Predicton Oneは公式サイトからダウンロード可能。

    現時点ではWindows OS版のみの対応となっているため、Windows OSがインストールされているPCが必要だ。

    ダウンロードが完了次第、インストールすればツールの準備は完了する。

    Prediction Oneの特長のひとつとして、完全オフラインでの予測分析が可能な点が挙げられる。

    業務上の都合で、データをクラウド上に移行することが難しい企業は多いと思うが、Prediction Oneでは、データ流出の危険性はない。

    そのため、セキュリティが厳しい企業であればあるほど、有用なツールだといえるだろう。

    STEP2:データセットを分割する

    作成したモデルが本当に有用かどうか検証するには、データセットを予測モデルの作成用と検証用に分割し、検証用において予測結果と実際の結果の照らし合わせが必要となる。Prediction Oneは検証用のデータを作成し検証まで自動的に行う。

    Prediction Oneの予測機能を利用して、予測結果と実際の結果を並べて比較するため、今回はあえてデータセットを予測モデルの作成用と検証用に分割することにする。

    そのため、今回は、『2018 calorie, exercise and weight changes』の最終2週間を検証用のデータとして用いることにする。検証用データは、今回のターゲットである変数「change」の値を別のファイルにメモし、使用するデータからは値を削除する。

    この際に気を付けることは、列自体を削除しないことだ。列自体を削除してしまうと検証ができなくなるため、小さいことだが気を付けておきたい。

    検証用に成型したデータは以下の通り。

    STEP3:Prediction Oneを起動し、新規プロジェクトを作成する

    ここからは、実際にモデル作成を始めていく。Prediction Oneを起動し、新規プロジェクトを作成する。

    プロジェクトタイトルは『体重変化の予測』と設定した。

    STEP4:変数を調整し、モデルを作成する

    プロジェクトが作成出来たら、新規モデルを作成する。ここで、CSVファイルに含まれるどの変数を予測するモデルを作成したいのか決定し、そのうえで、予測分析に使用する変数を選択していく。

    この検証では、「weight_oz」を除いたすべての変数を使用した。

    「weight_oz」を除いた理由は、「weight_oz」と「change」は実質的に同じ意味を持つためだ。

    変数を変更することでモデル精度を調整可能

    他にも、検証には不必要に思える変数はいくつかあるが、Prediction Oneが自動的に変数の調整を行ってくれるため、ひとまずは変数を極力減らさずに進めていく。

    予測分析をおこなう際には、データの中から個別に意味を持たないものや、予測したい変数と同義の変数を排除していかなければ、実用性のあるモデルは構築できない。

    モデルを作った際に、精度が高すぎた場合にも、精度が低い場合と同じくなんらかの問題をはらんでいることが多いことを覚えておく必要がある。

    Predicton Oneでは、予測したい変数と使用する変数を選択し、「学習と評価を実行」をクリックするだけで自動でモデル作成が進む。

    使用するPCのスペックや、データセットの大きさにより、分析にかかる時間が大きく変化するため、始めは10KB程の小さめのデータセットで試してみることをお勧めする。

    小さめのデータセットを使用し、さまざまな変数の組み合わせを試すことで、データ活用の可能性を肌で感じられるはずだ。

    Prediction Oneでは、どのデータが結果に対して大きな影響をもたらすのかを確認することも可能で、今回使用したデータセットの中では、体重の推移に及ぼす影響がもっとも大きい要因は摂取カロリーだということが判明した。

    つまり、運動の有無よりも摂取カロリーを低く保つことがダイエットには有効だということだ。

    さらに細かく見ていくと、体重1オンスあたりの摂取カロリーが0.510~0.860のとき、体重は減少する傾向にあることや、運動の有無が結果に大きく影響していることも、モデルの評価結果から見えてくる。

    STEP5:予測モデルを検証する

    ある程度使えそうなモデルが作成できた時点で、検証に移る。

    検証したいモデルを選択し、「新規予測」をクリック。用意した検証用データを読み込ませる。

    今回の検証で選択したモデルの検証結果は以下の通り。

    今回使用したデータは、大まかな運動の有無やカロリーなど、基礎的なものが多いにも関わらず、実際の値とPrediction Oneの予測値に大きな乖離はなかった

    個人でダイエットの指標として活用するには十分な予測モデルができたといえる。

    予測分析が生み出す2つの価値

    今回の検証を通して、ダイエットという日常的な事柄に対して予測分析をおこなうことによるメリットが2つ判明した。

    1つめは、ダイエットの成功につながる要因を見つけ出せることだ。

    ダイエット中の生活で取得可能なデータを分析していくことで、どんな行為が体重の増減にどう寄与するのかデータをもとに理解することで、より効率的なダイエットができるといえる。また、取得してきたデータをより細分化し、さらに精密な分析をおこなうことも可能になる。

    例えば、摂取カロリーに占める糖質の割合や、脂質の割合をデータとして取得することで、さらに効率的なダイエットを目指すことも可能だ。

    2つめのメリットは、モチベーションの管理だ。ダイエットを成功させるには、継続的に自分自身を律し、目標に向けて努力し続ける必要がある。

    しかし、ダイエットの効果は一朝一夕には体感できないため、早い段階で諦めてしまう人が多い。そんなとき、日々の摂取カロリーや運動量の計画値を入力することで、体重変化の予測推移が確認できれば、モチベーションの向上にもつながるだろう。

    上記のようなメリットはビジネスにおいても同様だ。

    取得が容易なデータを蓄積していき、分析することで、事業成長に大きな影響を及ぼす要因を見つけ出すことや、予算や過去の実績をもとに、現実的な数値目標の設定も可能になる。

    今回の企画を通じて伝えたいことは、今までデータ活用を敬遠してきた人でも、個人に紐づく日常的なデータの分析から始めることで、データへの理解を深めることができるということだ。

    データ活用の一歩目をPrediction Oneによる予測分析から進めてみるのはいかがだろうか。

    非エンジニアがソニーのNeural Network Consoleで画像分類モデルを作ってみた

    【PR】この記事はソニーネットワークコミュニケーションズ株式会社のスポンサードコンテンツです。

    近年、ディープラーニングのブレイクスルーにより、AIは本格的な普及期に突入している。普及に伴って、モデル構築のハードルを下げ、非エンジニアでもディープラーニングを試せるGUIツールがさまざまな企業からリリースされている。

    そこで今回は、ソニーネットワークコミュニケーションズが提供しているNeural Network Consoleを使い、簡易的な画像分類モデルを作成していく。ツール内には専門的な用語がいくつか出てくるが、一つひとつの意味を大まかに理解すれば問題ない。

    なお、Neural Network Consoleにはクラウド版とWindows版の二種類があり、今回はクラウド版を使う。もちろん今回のデモでコーディングは使用しない。本記事で行うサンプルで学習を回す分には料金がかかる心配はないので、ぜひ手元で試しながら記事を読み進めていただきたい。

    学習データを準備するだけで簡単にモデル構築が可能

    Neural Network Consoleはディープラーニングモデルの開発ハードルをなくすべく生まれたAI開発ツールである。最初から最後までプログラミング不要でディープラーニングが実装できるのが特徴だ。最適なネットワークの構築を自動化する機能もついており、ドラッグ&ドロップによる直感的な操作も可能となっている。

    今回は、Neural Network Consoleに搭載されているサンプルを用いて、画像分類を行う。手書き数字の画像が「4」か「9」かを判別するモデルを作成する。

    一見簡素な分類に思えるが、少し応用するだけで実際のビジネスへの活用が可能になる。下記事例のような、人が目で対象物を分類している業務がそれに当たる。

    関連記事:300店のベーカリーに導入された画像認識AIレジの秘密に迫る

    まず画像分類の学習には、下記の二種類のデータを準備する必要がある。必要なデータ数は場合によって異なるが、今回はサンプルとして用意されている、学習用データ1,500枚、評価用データ500枚を使用する。

    • 学習用データ
      大量の「4」と「9」の画像。準備するデータセットはサイズを揃える必要がある。今回のサンプルは28×28でそろっている。

    • 評価用データ
      学習には用いないデータ。Neural Network Consoleで作ったモデルがどれくらいの精度で分類できているのか、評価するために使用する。

    ニューラルネットワークの構築も手軽。学習を実行してみる

    今回はクラウド版のNeural Network Consoleでデモを行っていく。画像分類器を作るため、まずはProjectタブ内の01_logistic_regressionをクリックし、名前(今回はdemo_1)をつけて新規保存する。

    Project画面。様々なチュートリアルの中から、今回は01を選択

    1分ほどで保存は完了し、プロジェクトが作成される。demo_1プロジェクトを開くと、専門用語が多く見られるが、本ツールでモデルを構築するにあたって、いきなりすべての意味を理解する必要はない。

    EDITタブでは、Components内にある要素(レイヤー)を組み合わせ、ニューラルネットワークを構築できる。レイヤーを組み合わせる際の動作はレゴのように単純である。今回は、サンプル用にすでに構築済みの一層のネットワーク(画像内:青と赤の層の組み合わせ)を使用する。このモデルはドラッグ&ドロップで編集可能なので、ほかの層を加えることも簡単である。

    EDITタブ内の画面。すでにモデルが読み込まれている

    モデルを確認できたところで、続いてデータを確認していく。DATESETタブでは、このプロジェクトで使用するデータの画像やラベルが確認できる。

    DATASETタブ内の画面。画像の種類やラベルが確認可能

    画面左に2種類の画像フォルダがあり、それぞれの役割は下記の通りである。

    • Training
      学習に用いるデータ

    • Validation
      学習済みモデルに読み込ませ、精度を評価するために用いるデータ

    画像右にあるラベル(y:9)は、その手書き文字が「4」であるか「9」であるかを表している。ラベルが0であればその手書き数字が「4」であることを表し、ラベルが1であればその手書き数字が「9」であることを表している。このラベルは事前に準備する必要があるため、自前のデータを活用する際にはこのような正解ラベル付けの作業が発生する。

    データとモデルは揃っているため、最後にEDITタブ内の「RUN」ボタンを押せば学習が始まる。あとは、どれくらいの精度で画像を判別できるか、結果を待つだけだ。

    EDITタブ内の画面。右上のRUNを押すと学習が開始する

    学習にかかる時間はプロジェクトごとに異なる。TRAININGタブで学習の進捗が確認でき、今回のモデルは3分ほどで完了した。

    モデルの精度を確認するためには「RUN」をクリックし、EVALUATIONタブ内のConfusion Matrixにチェックを入れる。画像分類の精度を表すAccuracyは0.954であり、結果として今回は「4」と「9」を95.4%の精度で分類するモデルを作ることができた。

    TRAININGタブ内の画面。右上のRUNを押すと、モデル評価を確認できる

    EVALUATIONタブ内の画面。作成したモデルの精度を確認できる。

    さらに、下記の画像の通りClassification Matrixを選択し、False-positiveの数値をクリックすると、誤って判別された画像を表示することもできる。

    赤枠で囲われた箇所をクリックすると、誤って判別された画像を表示できる

    誤って判別された手書き数字の画像

    AI/ディープラーニング領域におけるGUIツールの価値

    今回はサンプルを使用したが、画像分類モデルを作りたければ、同様の手順ですぐにモデルが構築できる。Neural Network Console内にはほかにも数十個のサンプルモデルが用意されている。ほかのサンプルを試してツールに慣れれば、自前のデータでモデルを作ることも簡単にできるはずだ。

    こうしたGUIツールによりAI導入のハードルが下がれば、まずは手軽にAIを試してみる、といった動きが増え、現場レベルでのAI活用が加速する。Neural Network Consoleでは、画像分類や時系列予測、文書分類などを扱えるため、たとえば、記事カテゴリ判定や電力量の異常検知などに活用が期待できる。企業の活用シーンを想定しても、非常に実用的なツールと言える。

    必要な技術ハードルは下がっている今、このようなGUIツールでAIに触れてみてはいかがだろうか。

    文系卒プログラミング未経験者は「AI人材」になれるのか?オンライン講座SIGNATE Quest体験レポート

    文系学部卒、プログラミング未経験。初心者向けの技術書は挫折。縁あってAI業界で働きはじめ、「AI技術についてもっと知りたい」という思いはありつつも、何から手を付けたらいいか分からず焦っている……。

    そんな筆者が、AI学習サービス「SIGNATE Quest」体験版をレポート。感じたことを率直に綴っていく。

    関連記事:プログラミング初心者が画像認識まで実践。AIオンライン学習サービス「Aidemy」で学ぶ

    SIGNATE Questとは?

    SIGNATE Quest(シグネイトクエスト)は、AI開発者向けコンペを開催するSIGNATEが運営するAI人材育成オンライン講座。経済産業省の実証事業「AI Quest」にも採用された。

    2019年11月現在、法人向けサービスのみ提供されており、サービスローンチ時、Ledge.aiでも取り上げている。

    関連記事:法人向けAIオンライン講座「SIGNATE Quest」公開。NEDOから受託の課題解決型人材育成にも利用

    FAQによると、SIGNATE Questは開発未経験者や「ビジネスサイド」の人材も対象にしているとのこと。多くのビジネスマンが該当するだろう。

    Q. どういった職種が受講対象となりますでしょうか?
    プログラミング未経験の文系出身者でも受講できるようなカリキュラムでしょうか?

    これからの時代、AIリテラシーは全社員に必須の能力です。
    ITエンジニアやデータ系人材のみならず、営業、経理や総務まで幅広い職種の方が対象となります。
    プログラミングやPython初心者からAIモデル開発経験者まで、ご自身のレベルに合わせて受講できる教育プログラムをご用意しております。

    出典:よくある質問 | SIGNATE Quest

    AI関連知識を網羅するGymとを解決するQuest

    SIGNATE Questは基礎トレーニングのGymと、さまざまな業界の課題解決を疑似体験できるQuestの2コースで構成されている。

    筆者はまさに「AIやPythonを始めて学ばれる方」なので、今回はGymを選択。

    Gymのラインナップはまるで大学の教養科目群

    Gymは以下の7カテゴリ・計13講座からなり、履修順番は自由。自分の興味あるトピックから選べる構成になっている。

    • 一般知識
      • AI入門
      • Deep Learning入門
    • ビジネス
      • AIビジネス推進概論
      • AIプロジェクトテーマ選定法
      • AI運用法
      • AI ROI算定法
    • 法律/倫理
      • AI関連法律概論
    • 理論
      • AI関連理論概論
    • プログラミング
      • Python入門
      • pandas道場
      • Python環境設定
    • 分析
      • AI関連分析手法・モデリング概論
    • ツール/エンジニアリング
      • AI関連ツール・サービス概論

    「Python入門」「クラスタリング分析」というように、プログラミングや分析手法の講座が充実しているオンラインスクールが多い中、プロジェクトマネジメントや関連法律にも触れており、一風変わっているなという印象を受けた。

    Gymに挑戦:7〜8分の動画を見てタスクを解いていく

    1講座の基本的な流れは、解説動画を見る→動画内容をもとに出題されるタスクを解く、というもの。

    所要時間2〜3時間のものが多く、最長で8時間。ひとつの講座が6〜11のミッションに分解されていて、 履修順の入れ替えやタスクの回答順変更、中断も自由だ。動画を見ずにタスクだけ解くことも可能。

    タスクでは設問文を見る、回答する、コーディング、書いたコードの実行がブラウザ上の一画面で実行できる。

    オンラインプログラミングスクールではおなじみの機能だが、ツールを使えるようになるまでの学習コストが抑えられるのは嬉しいところだ。

    AI入門

    最初に始めたのは、AIに関わる基本的な知識をインプットできる「AI入門」。DeepLearning入門、AI関連法律概論にも挑戦してみたかったが、記事執筆段階ではComing Soon表記があった。ちょっと残念。

    AI入門のミッションは計7つ、所要時間は2時間とのこと。

    カリキュラムは以下のとおり。

    1. AIの仕組み・歴史
    2. 機械学習との関係
    3. AIの事例
    4. AIクラウドサービスについて
    5. データサイエンティストについて
    6. データについて
    7. まとめ

    最初のミッション「AIの仕組み・歴史」で研究者によって異なるとしたうえで、AIの定義を「人間の知的行為をAIで模倣させたソフトウェア」と述べていた点に好感が持てた。

    AIという言葉の定義は本当にさまざまで、認識のずれによってはコミュニケーションに支障が出てしまうこともある。「広い意味を持つ言葉」だと知っておくだけで、行き違いは防げるはずだ。

    ほかにも特化型人工知能・汎用型人工知能の違いや、データを独自で作る場合の注意点といった、AIビジネス初心者が勘違いしがちな内容を網羅している。

    「自社のデータを生かして何かAIを作りたい」という(体感値)よく聞かれる質問の答えも、この講座を学べば分かるはず。

    Python入門

    次に取りかかったのが、機械学習・ディープラーニングに向くプログラミング言語Pythonの入門講座。「データ分析に使うPythonの基本文法を覚える」という目的でカリキュラムが組まれており、Pythonでの四則演算からデータ構造の選択、内包表記に至るまで11のミッションをこなしていく。

    カリキュラムは以下。

    1. 初めてのPython
    2. 変数とデータ型
    3. 文字列の操作
    4. データ構造
    5. リストの操作
    6. 論理演算と条件分岐
    7. 反復処理
    8. 内包表記
    9. 関数
    10. ライブラリ
    11. ファイルの入出力

    この講座で印象的だったのは、ていねいな用語解説。「プログラムにおけるイコールとは、等しいでなく代入という意味ですので注意しましょう」「関数名はクラス名にできません」「変数にはint型とstr型があり……」といった基礎知識を噛み砕いて解説してくれるのはありがたい。伊達に”プログラミング初心者向け”を謳っていないぞ……。

    各ミッションの説明文に「データ分析で使うであろうシチュエーション」が明記されているのもいいなと感じた。目的が分からないまま「関数△△を説明します」「この記法はよく使われますので覚えておきましょう」と言われるのはなかなか辛い。

    ミッションの順番通りこなし、HelloPythonから四則演算、if文やfor文/While文などプログラミングの基本、Pythonでよく使われる関数やラムダ式の記法までひととおり学ぶことできた。

    pandas道場に入門してQuestでデータ分析に挑戦してみる、はずだったのだが

    Python入門を終え、いよいよ「pandas道場」に突入。これで私もデータサイエンティストに……と思った矢先、急に難解になり面食らってしまった。

    ここからは概要のみ述べる。

    pandas道場

    pandasはPythonでのデータ分析・解析で多く用いられている、オープンソースのデータ分析ライブラリ。

    Python Data Analysis Library — pandas: Python Data Analysis Library

    Gymによると「pandasはデータ分析の過程において作業の大半を占める、データの前処理や探索的分析を柔軟かつ効率的に行うための高機能なデータ構造と各種ツールを提供しています。」とのこと。

    講座カリキュラムはこちら。

    1. pandasの為のNumpy入門
    2. Seriesの基本
    3. DataFrameの基本
    4. データの読み込みと書き出し
    5. データのクリーニング
    6. データの結合と形状変換
    7. データのグループ化と集約
    8. データの可視化

    この講座には動画がないので、「Python入門」で習った関数や記法などを活かしながら、ひたすらコードを書いてタスクをこなしていく。

    この数日間何度か見た問題画面に目を向けると、見慣れない文言が並んでいた。配列の生成、型、オブジェクト……残念ながらひとつひとつ理解していくのが難しく、今回はここで手を止めることにした。「プログラムにおけるイコールは、等しいでなく代入だよ」と教えてくれたPython入門はどこに行ってしまったんだろう。

    初学者向けといえど、ある程度の予備知識やついていくための覚悟は必要ということか。

    モデル開発やデータサイエンスのいろはが体験できるQuest

    Questも概要のみ述べる。「AI開発実践」として位置づけられているQuestは、AI予測モデルを作り、課題解決に使うという一連の流れを体験できる。

    内容は「実践向け」とあるように、未経験者はGymの「Python入門」と「pandas道場」を終えてからのほうが良いだろう。開発経験者は、この2つをおさえていればQuestから取りかかって問題なさそうだと感じた。

    おすすめされていたクエストは「自動車環境性能の改善」。自動車メーカーが、近年の排出ガス規制で燃費性能の改善を求められる中、「過去の自動車データから、走行前に燃費を予測できる機械学習モデルを作成する」という一連の流れを学習する。

    1. 自動車データの読み込み・確認
      • データ精査、欠損値・異常値の確認
    2. 自動車データの特徴把握
    3. 燃費予測モデルの作成
      • データの分割、モデルの学習・精度評価など
    4. 燃費予測モデルの予測精度改善

    他にも食品ロスの削減、スポーツのチケット価格の最適化、健康経営のための疾患リスク予測などさまざまな業界の課題が用意されている。

    課題を終えたあとも、予測精度の高い新たなモデルを構築するChallenge Missionが与えられる。

    結論:AIって何?な人は「AI入門」の章だけでも学んだ方がいい

    AI入門講座というと、Pythonの基本文法の説明から入り、おのずと何らかの技術を体験して終わる(たとえば、何の説明もなくいつの間にか画像認識をやっていたというような)のを危惧していたが、SIGNATE Questは「AIを使ったモデル開発やデータサイエンス手法を学び、AI人材を目指す」という目標と、目標到達までの道筋が明確になっている。

    一方で「自然言語処理から始めたい」「音声認識をやってみたい」というように、データ分析以外に挑戦したい課題があるユーザーからしたらやや退屈に思うかもしれない。

    動画再生機能・個人向けプランは今後に期待

    個人的には、倍速再生機能があるとより使いやすいと思った。タスクの問題を解きながら動画をサッと見返したいときもあるので、等速再生しかできないのはちょっと残念。流し見をせず「じっくり見る」動画だからあえて倍速機能を付けない、という意図があるのかもしれない。

    個人向けプランの提供も望まれる。法人向けプランのみ提供となると、利用ユーザーがおのずとビジネスマン以上の年齢になってくる。中高、学部生時代にこのコンテンツで学べるなら、コンピュータサイエンスや統計学といった分野に興味を持つきっかけになると思うので、この点は惜しい。個人でも手が届くようになれば、データサイエンティストなど「AI人材」の輩出に一役買えるのではなかろうか。

    いずれも今後に期待というところか。

    なんとなくでも理解しておくと、AIを活用するための発想が広がる

    AIは「よくわからない」ものかもしれない。でも、「なんとなく」でも分かると、見える景色が違ってくる。

    冷蔵庫の仕組みが分からなくても「食品などを低温で保管する道具」だと知っていれば、無闇に温かい物を入れようとはしないだろう。AI技術も同じく、概念を知っていれば「AIなら何でもできるよね!」という突飛な発想は避けられるし、「AIは人類を脅かす」といった身も蓋もない陰謀論に怯えることもないはず。

    SIGNATE Questは、最低でも「なんとなく」、きちんと取り組めばそれ以上の解を返してくれる講座だ。AI技術をもっと知るために学ぶべきことは多くあるものの、到達までのひとつの道が見えた気がした。

    2045年問題とは?シンギュラリティの意味・AI事例

    近年のAI(人工知能)の発展により、話題になることの多い2045年問題。内容について漠然と知っているものの、正確に説明できない人も多いのではないでしょうか。

    本稿では、2045年問題とはなにか、何が起こるのか?そのとき私たちはどう行動すべきかについて解説します。

    AI(人工知能)とは?

    Photo on max pixel

    まずAI(人工知能)の定義について解説します。そもそもAIに確立した定義は存在せず、専門家により定義はまちまちであり、その解釈は人により異なります。

    中島秀之
    公立はこだて未来大学
    武田英明
    国立情報学研究所
    人工的につくられた、知能を持つ実態。あるいはそれをつくろうとすることによって知能自体を研究する分野である
    西田 豊明
    京都大学
    「知能を持つメカ」ないしは「心を持つメカ」である
    溝口理一郎
    北陸先端科学技術大学院
    人工的につくった知的な振る舞いをするためのもの(システム)である
    長尾真
    京都大学
    人間の頭脳活動を極限までシミュレートするシステムである。人工的に作る新しい知能の世界である
    浅田稔
    大阪大学
    知能の定義が明確でないので、人工知能を明確に定義できない
    松原 仁
    公立はこだて未来大学
    究極には人間と区別が付かない人工的な知能のこと。
    池上 高志
    東京大学
    自然にわれわれがペットや人に接触するような、情動と冗談に満ちた相互作用を、物理法則に関係なく、あるいは逆らって、人工的につくり出せるシステム
    山口 高平
    慶應義塾大学
    人の知的な振る舞いを模倣・支援・超越するための構成的システム
    栗原 聡
    電気通信大学
    人工的につくられる知能であるが、その知能のレベルは人を超えているものを想像している
    山川 宏
    ドワンゴ人工知能研究所
    計算機知能のうちで、人間が直接・間接に設計する場合を人工知能と呼んで良いのではないかと思う
    松尾 豊
    東京大学
    人工的につくられた人間のような知能、ないしはそれをつくる技術

    出典:松尾 豊「人工知能は人間を超えるか」P45より

    また、AIを「強いAI」と「弱いAI」、また「汎用型AI」と「特化型AI」に分類し整理する方法もあります。

     

     

    2045年問題とは何か

    Photo by Sam Howzit on Flicker

    2045年問題とは、AIなどの技術が、自ら人間より賢い知能を生み出すことが可能になるシンギュラリティが2045年に起こると予測され、それに伴うさまざまな影響、問題の総称のことです。

    アメリカのレイ・カーツワイル博士が2005年に著書「The Singularity Is Near:When Humans Transcend Biology」で提唱しました。

    ・シンギュラリティ(技術的特異点)とは

    シンギュラリティとは、日本語で技術的特異点のこと。AIなどの技術が、自ら人間より賢い知能を生み出すことが可能になる時点を指します。この説は、アメリカの数学者ヴァーナー・ヴィンジによって提唱され、レイ・カーツワイル博士も賛同しています。

    レイ・カーツワイル博士が提唱する2045年問題

    Photo by Pete Linforth on Pixabay

    カーツワイル博士によると、人間の脳は100兆個の極端に遅いシナプスしかなく、2029年には、すでにAIの思考能力が人間の脳の演算能力をはるかに超えるだろうと予測しています。

    また、2045年には10万円のコンピューターの演算能力が人間の脳の100億倍になると表現し、これらの予測を「ムーアの法則」「収穫加速の法則」を根拠に提唱しています。

    ムーアの法則

    ムーアの法則とは、集積回路に使われるトランジスタの数が18ヶ月ごとに2倍に増える法則です。

    インテル社の創業者であるゴードン・ムーアにより論じられた指標で、もともとは大規模集積回路(トランジスタ)の生産時の長期傾向における指標を表すものでした。

    一般的な公式としては

    p=2n/1.5

    が用いられ、nは年、Pはn年後のトランジスタ倍率を表しています。つまり、18カ月で2倍、3年で4倍、15年で1024倍の容量のメモリチップが登場することを示します。

    ただし、ムーアの法則は物理的な限界を迎えつつあるという意見も存在しています。

    NVIDIAのCEO、Jensen Huang氏は、「ムーアの法則はかつて、5年ごとに10倍、10年ごとに100倍だったが、いまでは毎年数%だ。10年単位でおそらくせいぜい2倍だろう。ムーアの法則は終わったのだ」と語っています。

    引用文献:「ムーアの法則は終わった」:NVIDIAのCEOがCES 2019でも明言

    収束加速の法則

    収束加速の法則とは、技術進歩において、その性能が直線的ではなく、指数関数的に向上する法則です。

    つまり、新しい技術が発明され、複数のそれらの技術が次の段階の発明に利用されることにより、次世代の技術革新までの間隔が短くなることです。

    ムーアの法則では物理的な限界値を迎える半導体の進化も、収穫加速の法則では三次元分子回路などの新たなテクノロジーの出現により、さらなる発展が予測されています。

    ヒューゴ・デ・ガリスの予測

    Photo by Cody Ellingham on Wikipedia Commons

    また、遺伝的アルゴリズムの研究で知られるオーストラリアの研究者ヒューゴ・デ・ガリスは、シンギュラリティは21世紀の後半に訪れると予測しています。

    ヒューゴ博士は著書「The Artilect War」(2005)で、近年のAIの急激な進歩から計算すると、21世紀後半にはAIの処理能力は、人間の10の24乗倍(1兆×1兆)になると主張しています。

    なぜ2045年問題が注目されているのか

    Photo by The People Speak! on Flicker

    近年、2045年問題が注目を浴びるようになった理由の1つとしては、2014年にイギリスで行われた、コンピューターに知性があるかないかを判定するチューリングテストの結果があります。

    この実験では、ウクライナ製のAIが「Eugene(ユージーン)」という名前の13歳の少年として振る舞いました。その結果、30%の観察者が「人間かAIか判断できない」という評価をし、大きな話題となりました。

    「チューリングテストの合格が、コンピュータに知性があるかを判断するわけではない」という議論も存在します。しかし、それらを踏まえても、チューリングテストをパスした事実は大きく、AIの急進的な発展が注目されています。

    現段階で活用されているAI事例

    Photo on Pixhere

    現在、強いAI、汎用型AIとよばれるAIはいまだ実現されていません。しかし、弱いAI、特化型AIなどのAIは、「画像認識」「音声認識」「自然言語処理」「予測」の分野で、多くのビジネスに導入されています。

    これらの技術は、2012年に登場したディープラーニングがブレイクスルーとなり実現しました。

    ・ディープラーニングとは

    ディープラーニングとは、データから自動で特徴を抽出し分類や予測を行う技術であり、機械学習の一種です。

    従来の機械学習では、人間が特徴を定義しそれをもとに学習精度を上げていたため、認識率が低くAI研究が否定的なイメージを抱かれる「冬の時代」がつづいていました。

    しかし、2012年のディープラーニング(深層学習)の登場で、学習データから自動で特徴を抽出し精度を上げていくことが可能になり、AI研究のブレイクスルーとなりました。

    ディープラーニングの登場により、さまざまなビジネスにAIが用いられるようになりました。

    画像認識

    画像や動画から文字や顔などの対象物を認識し、検出する技術で、ディープラーニングの適用領域としてもっとも注目を集めています。

    Google Lens

    Googleが提供するGoogleレンズ画像認識サービスです。レンズを当てると自動的に被写体を認識し、詳細な情報を表示します。ディスプレイに表示されたテキストをデータ化したり、被写体をカメラで解析しその名前や関連情報を検出するなど、応用次第でさまざまな活用が可能です。

    ベーカリースキャン

    株式会社ブレインがレジに画像認識を導入した事例です。あらかじめ、販売しているパンの画像を登録しておくことで、AIが購入したアイテムを識別し合計金額を表示できます。ベーカリースキャンの導入により、人件費の削減、新人研修期間の短縮、レジの入力時間の短縮を実現しています。

    音声認識

    コンピュータにより音声を認識し、テキスト化する技術です。ディープラーニングやスマートフォンの普及により、場所を選ばず適用できる技術に進化しています。

    豚の呼吸器系疾病の聞き分け

    産総研発のベンチャー企業Hmgommは、熊本県立菊池農業高等学校と教頭で豚の呼吸器系疾病の聞き分けが可能なAIの開発実験を開始しています。豚の鳴き声から、呼吸器系の疾病を早期に発見することで、迅速な処置を行うことが可能になり被害を最小限にとどめる期待がされています。

    議事録書き起こしAI 「ProVoXT(プロボクスト)」

    株式会社アドバンスト・メディアのAI音声認識を活用したクラウド型議事録作成支援サービスです。数時間の録音データが十数分でテキストデータ化でき、茨城県庁にも導入されています。

    自然言語処理

    人間が会話などに利用している言葉を処理する技術です。現在も発展途上であり、さまざまなアルゴリズムが研究されています。

    チャットボット 「Replika」

    「Replika」は、アメリカ発で現在世界中に50万人以上の愛用者がいる、ある人のレプリカが作れるチャットボットです。ユーザーの口調や癖を真似、趣味や好みを意識した回答や質問を行い、使用頻度が高いほど精度も高くなります。

    『実ビジネス』への自然言語処理の利活用 「Asales」

    「Asales」は、「社内の自然言語データ」を解析するサービスです。
    営業が残した商談メモなどの顧客接点データを解析し、誰の営業では売れて、誰の営業では売れなかったかを可視化、スコアリングします。これにより、優秀な営業マンのセールストークなど、ノウハウを横展開することができます。また、顧客接点データを解析することで、リードの潜在ニーズを抽出でき、成約率を高めたり、同じようなニーズのある別業界の潜在顧客が把握できます。

    予測

    AIが大量のデータセットを用い、将来の結果を予測するサービスがさまざまなビジネスに導入されています。

    広告クリエイティブの効果を予測

    電通はネット広告のCTRなどを配信前に予測するAIツール
    「MONALISA」を、サイバーエージェントが同様の効果予測ツール「AI feed designer」を導入しています。
    広告の効果測定が予測し効果が高くないものを弾くことで、本当に効果が見込めそうなものだけを選定するだけでよく、広告運用担当者の大幅な工数削減が期待されています。

    タクシーの到着時間を予測

    「JapanTaxi」アプリのタクシーを呼ぶ配車機能では、AIを用いたタクシーの到着時間を予測するサービスを導入しています。ユーザーは、予測されたタクシーの配車到着時間から、キャンセルするかどうかを判断できることにより、配車依頼数を維持したまま、配車キャンセル率だけを下げることに成功しています。

    2045年にシンギュラリティは来るのか?

    Photo by Cristian Dina on Pixwls

    本記事では、シンギュラリティが来ることを前提として解説してきましたが、シェリー・カプランなどの専門家によってはシンギュラリティは来ないとする説もあります。

    それだけ議論の余地のあるトピックであり、未来がどうなるかは定かではありませんが、事実としてAIの進化は著しいです。とくに、ビジネス領域でのAI活用は日々進んでおり、AIが徐々に社会に浸透してることは疑いようがありません。

    2045年にシンギュラリティが来るのかは定かではありませんが、今後AIの発展により社会が大きく変化する可能性があります。最新技術により変わり続ける時代を生き抜くために、私たち自身も変わっていく必要があるのではないでしょうか。
    関連記事:

    教師の「仕事多すぎ問題」を解決するには、AIだからできることを探せ

    教育・人材育成分野に特化した国内外の先進事例、多様な教育イノベーションの体感を目的としたEdvation x Summit 2019が2019年11月5日、紀尾井町カンファレンスで催された。

    本稿ではパネルディスカッション「AIは教育に何をもたらすのか?AIテクノロジーのいまとこれから」(11月5日開催)のセッション内容をレポートする。

    今回のセッションでは、教育×AIに関する各トピックについて4名の登壇者が意見を交わし合った。登壇者は以下のとおり。

    パネリスト
    床鍋佳枝氏
    株式会社 Cogent Labs
    手書き文字AIデータ化サービス「Tegaki」を提供

    原田英典氏
    UIPath 株式会社 Head of Product Marketing
    業務自動化サービス「UIPath」を提供

    福原正大氏
    Institution for a Global Society(igs)CEO/Founder
    生徒個人の資質を分析・可視化する「Ai GROW」、人事向けAI適性検査ツール「GROW360」を提供


    モデレーター
    宮澤瑞希氏
    アイード株式会社 代表取締役CEO
    多次元音声評価AI「CHIVOX」を提供

    セッションはAIを使った教育課題の解決、AI時代に必要な教育とは何か、の2部構成。1部では現役教師の声から教育現場の課題を取り上げ、議論のテーマとして選ばれたのは「英語教育改革最前線」「仕事多すぎ問題」の2つだ。

    英語教育の課題は、AI活用のためのデータ集めと業務自動化

    1つ目のテーマ「英語教育改革最前線」では、「大学受験以来英語に触れていない教員が、小学校での英語必修化に対応できるのか」という教師の声が紹介された。

    写真左から、床鍋氏、原田氏、福原氏、宮澤氏

    英語や国語といった教科では、AI技術のひとつ「自然言語処理」を用いる。ライティング文例の提案やスピーキングの補助など、現在のAIができることは少なくないものの、AIを使うためのデータ集めが難しい、と語るのは福原氏だ。

    ――福原氏
    「自然言語処理を使うには、「子供が英語学習でつまづきがちなミス」を把握している膨大な辞書(コーパス)が必要です。以前私がこの領域に参入したときは、こうしたミスがデータ化されていなかったため、どんなに性能の良いAIを乗せようとしても機能しなかったのです。

    国が事業として、民間企業と協力しあってコーパス作りを進められるといい」

    議論では教育現場へのAI導入のボトルネックにも触れ、

    • ツールの操作が難しい(もしくは、利用ハードルの高さを感じる)
    • 属人的な部分が多く業務の言語化ができていない

    という2つの問題が挙げられた。

    後者について原田氏は「学校の先生ではなく専門家が自動化を進めるのが良い」として、三井住友銀行のロボット人事課を例に挙げた。

    ロボット人事課は、「マニュアル化された作業を自動化する」業務自動化の専門家集団が、社員への業務に関するヒアリング結果から、自動化するためのロボットを制作し配信するという。

    関連記事:IT企業の150人が競う、三井住友銀のRPA大作戦(外部リンク)

    学校でも同様な仕組みが作れたら、AIやボットによる業務自動化が進むが、そのためには学校側が技術にキャッチアップしていく必要がありそう、とのことだ。

    ――原田氏
    「日々の英語教育は「できる人がやればいい」という問題に陥りがちです。「英語教育ができない」という先生に対して、いかにAIがサポートできるのか、という側面から解決策を考えていく必要があると思っています」

    人間よりAIが得意なことは「書き順のテスト」「ネットいじめの発見」など

    もう1つのテーマは「仕事多すぎ問題」と題し、授業準備や家庭向けの資料作成などの事務業務で児童生徒と接する時間が少ない、という教師の声が紹介された。

    ――福原氏
    「教育現場では、(教育の)足し算はできるけど、引き算はできないという問題をよく見かけました。生徒のために良いと思ってさまざまなカリキュラムやツールを用意するものの、結果として業務量が増えて忙しくなってしまう。

    導入した施策が、本当に生徒の能力を伸ばす効果があるのかを測定しビッグデータ化して、教育の洗い出しをする必要があると思います」

    逆に「人間よりAIが得意な領域もある」として、登壇者からは「画像認識技術を使って、書き上がった文字から書き順を指導する」(原田氏)「先生の目から隠れがちなLINEいじめなどは、ネットワーク情報からいじめの発生場所を探せる」(福原氏)などの意見も上がった。

    ――床鍋氏
    「弊社の文章分析サービス「Kaidoku」では、文章がネガティブか、ポジティブなものかを判断できます。書きこまれた内容のほか、回数なども加味し、生徒個人の心の動きを知ることもできるでしょう」

    AI時代に必要な教育は、徹底した個別最適化

    「AI時代に求められる教育とは」の議論では「人と違う、ということを徹底的に肯定し、個性を認めるという方向になると思います」(福原氏)という意見があがった。

    ――原田氏
    「従来の社会では繋がれなかった人たちと繋がり、日常生活では得られがたい成功経験ができるのがAI社会の良い点だと思います。

    個人の嗜好や個性を見出し、各人に合ったコミュニティを紹介するなど、個人の嗜好、強さを生かした教育や学習ができる未来に期待したいです」

    テクノロジーを活用した新たな教育の仕組みに期待

    AI導入はまさにこれから、という教育業界。聴講者のモチベーションも高く、登壇者もまだまだ話足りない、という風に感じられた。当セッションのモデレーターを務めた宮澤氏に、今回のディスカッションに対するコメントをいただいたので最後に掲載したい。

     平日かつお昼の時間にも限らず満席となり、本テーマに関する社会の関心度の高さを伺えた。「大学入学共通テストへの英語民間試験の導入延期」についても話題になったが、地域/経済格差問題の解決策としてITの活用には大きな期待が持てる。また、グローバル化に対応する人材育成という観点で、英語の「書く」「話す」といった能力の向上は重要であるため、民間試験対策の枠に囚われない、真にグローバル人材の育成に資する教育の仕組みに期待したい。
     ところで数十年後にはAIやロボット(以下、テクノロジー)によって職業の半分以上が代替されるという予測があるが、一方で失われる職業以上にそれらによって創出される職業もあると考えられ、どんなテクノロジーを何にどう活用していくのかを思考する能力が、個人の労働条件/環境を左右する未来が訪れると考えられている。
     その中でセッションでは、テクノロジーによるアプリケーションの社会実装が進む未来に必要な教育として、「主体的に問題を発見し解決していく能力」の重要性が挙げられた。これらのモチベーションの構成要素にある「知的好奇心」や「興味関心」といった「教養」の涵養というのは、我が国では元来より重要視されてきた教育であり、AI時代を見据え登場する「新たな教育」と共に引き続き重要ではなかろうか。

    日本データサイエンス研究所、第三者割当増資を実施。累計4.8億円に到達──週間AI業界資金調達ニュース

    Ledge.aiでは、AI業界の資金調達ニュースを毎週金曜日にお届けする。11月4日〜11月8日のニュースは以下の通り。

    先週の記事はこちらから。

    日本データサイエンス研究所、第三者割当増資を実施。累計4.8億円に到達

    調達額
    約4,000万


    調達先
    Deep30投資事業有限責任組合
    日本データサイエンス研究所は、日本産業のアップグレードを目指しているという東大発のAI企業である。

    • 物流最適化
    • 需要予測
    • 教育

    など、幅広い分野で

    • アルゴリズムモジュールの開発
    • ライセンス提供事業
    • ITシステムの開発と運用事業
    • データサイエンスに関する顧問・コンサルティング事業

    を行っている。

    今回の増資について、代表取締役社長の加藤エルテス聡志氏は以下のように述べている。

    「JDSCにとって今回の増資は単なる資本拡充にとどまらない、より大きな意味を持ちます。JDSCは大学の知を社会に還元することで、産業の生産性を高める活動を行っています。これを契機に、東京大学の各研究室との連携や共同研究をより加速してまいりたいと思います。また、人材交流という観点でも、現在、東京大学の各研究室から大学院生をインターン生として受け入れることや、社員の大学院入学(修士・博士取得)を推進しているため、より一層の人材交流を図りたいと思います」

    また、今年7月にも

    • 学校法人駿河台学園
    • 株式会社トーハン

    などを引受先とする第三者割当増資により、約1.4億円の資金調達を行っており、今回の資金調達で累計4.8億円となった。

    ロボアドバイザー「WealthNavi」を提供するウェルスナビ、約41億円の資金調達を実施

    調達額
    約41億円
    (2015年4月の創業からの資金調達額は総額約148億円)


    調達先
    SFV・GB投資事業有限責任組合
    東京大学協創プラットフォーム開発
    ジャパン・コインベスト
    DBJキャピタル
    オプトベンチャーズ
    千葉道場ファンド
    SMBCベンチャーキャピタル
    りそなキャピタル
    価値共創ベンチャー2号有限責任事業組合
    みずほキャピタル
    WealthNaviは、従業員の約半数がエンジニア・デザイナーなどのクリエイターという「ものづくりする金融機関」であることを特徴とし、誰でも利用しやすいサービスづくりを心がけているという。

    WealthNavi」はノーベル賞受賞者が提唱した理論に基づいた「長期・積立・分散」の資産運用を全自動で行うサービスで、高度な知識や手間なしに国際分散投資を行うことができる。2016年7月の正式リリースから約3年3カ月で申込件数24万口座、預かり資産1,800億円を達成している。

    関連記事:2億件以上のデータから顧客心理を分析――ウェルスナビがAIによる資産アドバイス機能をリリース

    【ロボアドバイザー「WealthNavi」の主な特長】

    1. すべておまかせの資産運用
    2. ノーベル賞受賞者が提唱した理論などに基づいた世界の富裕層や機関投資家が利用する資産運用アルゴリズムや、最先端の機能で、高度な知識や手間なしに、自動で国際分散投資を行う。

    3. 中長期的に安定的に資産を形成していきたい働く世代へのサービス
    4. ロボアドバイザーが最適ポートフォリオを作成、心理的な壁に邪魔されることなく適切な資産配分の維持や、為替などのリスクの分散を図る積立投資の継続など合理的な投資行動を実現。

    5. 高い機能で効果的・効率的な資産運用をサポート
    6. 中核となる技術について特許を取得している「リバランス機能付き自動積立」や「自動税金最適化(DeTAX)」機能が、お客様の効率的・効果的な資産運用をサポート。

    7. 明瞭な手数料、資産運用アルゴリズムもホワイトペーパーで公開
    8. 手数料は預かり資産の評価額に対し1%(現金部分を除く、年率、消費税別※)のみ。また、資産運用アルゴリズムをホワイトぺーパーで公開しており、ホームページ上で閲覧可能。

    マクニカとALBERT資本提携へ AIで地方の製造業を効率化

    ▲写真左から、株式会社マクニカ:イノベーション事業戦略本部長 佐藤 篤志、代表取締役社長 原 一将、株式会社ALBERT:代表取締役社長兼 CEO 松本 壮志、執行役員CDO 安達 章浩

    今月6日、マクニカとALBERT(アルベルト)が資本業務提携すると発表した。製造業向けにAI/IoTを活用したスマートファクトリー化の促進が狙いだ。なお、両社は2017年に業務提携をしているが、今回は資本提携となる。

    地方の工場ではAIの導入はまだ進んでいない

    今回の主な提携内容は、

    • 「MindSphere」をベースとした、マクニカの製造業向けプラットフォーム上でのアプリケーション共同開発
    • 製造業顧客の個別AIプロジェクトにおけるコンサルティング、データ分析、アルゴリズム開発、システム実装などのサービス提供
    • AIに関する市場の啓もう活動

    これら3種となっている。

    資本提携でのターゲットは、全国各所にある“地方の工場”だ。「AIで業務を効率化したい」ということ自体は頻繁に挙がるものの、都市部以外の企業(=地方の工場など)にはAIの話が降りてきていない実情がある。さらに、AIを導入しようとしたところで、データを集める作業が必要になりタイムリーに導入できないという課題があった。なんでも、AIを実用化するまで2,3年必要とするケースもあるそうだ。

    両社の強みを掛け合わせる資本提携に

    ▲両社提携により目指す「スマートファクトリー」。工場がかかえる課題に対し、トータルでサポートする。

    地方にある工場がもつ課題を解決するために、マクニカとアルベルトが提携したのである。マクニカは、製造業向けに200件以上のAI/IoT活用における実績をもっている。一方でアルベルトは、AI活用コンサルティングやデータ分析ノウハウ、さらにはAI人材の育成が強みだ。

    この両社が提携し、製造業に特化した「AIを活用した業務効率化支援」のための共同提案や共同サービス提供をすることで、多くの企業が抱える問題の解決に向かう。将来的には、国際的な競争力を高めるきっかけになりたい、とも明かされた。

    ディープラーニング=万能ではない。データの関係性から特徴をつかむ「スパースモデリング」という技術

    ディープラーニングの普及が進んでいる。しかし、ディープラーニングはその特性上、膨大な量のデータと、データを処理できるGPUなどの高価な計算機が必要だ。そして多くの企業は、その2つを用意するところでつまずいている。

    今回紹介するスパースモデリングは、少量のデータから特徴を抽出し、学習と推論を行える技術だ。スパースモデリングについて、京都のAI企業ハカルスのデータサイエンティストである増井隆治氏に話を聞いた。

    増井隆治氏
    中学生の頃からプログラミングに興味を持ち、鈴鹿高専で情報学の基礎を学び、その後京都大学に編入し、より高度な数学を学ぶ。大学の実験で仲良くなった大関先生の紹介でハカルスでアルバイトを始める。3年間のアルバイトの後、ハカルス初の新卒として入社。データサイエンティストの仕事に邁進している。

    スパースモデリングはものごとの「スパース性」に注目する

    スパースモデリングとは何なのか。それを理解するには、まず「スパース性」という概念を理解する必要がある。

    そもそもスパースとは、「すかすか」という意味だ。スパースモデリングは、あらゆるものごとに含まれる本質的な情報はごくわずか=すかすかであるという仮定(スパース性)に基づき、入力から出力に対して「どこが本当に必要な情報なのか」を見極め、抽出する。

    では、どのように本質を見極めるのか。その答えとなるのが、「データ間の関係性を特定する」という特徴だ。出力を行うとき、スパースモデリングでは入力となるデータそのものに注目するのではなく、入力と出力の関係性を洗い出す。データ同士の関係性に注目することで、入力データ自体の多寡や質は関係なくなり、結果的に必要なデータは少量で済む。

    ――増井
    「スパースモデリングは、一見複雑そうな現象を『シンプルに説明できる』という仮定に基づいて分析する技術です。たとえば猫と犬を判別する際にデータが少なかったとしても、目や耳など、どの部分が特徴として効いてくるのかを分析できます」

    ディープラーニングの弱点とスパースモデリングの強み

    スパースモデリングは、どのようなケースにおいて有効なのだろうか。それはディープラーニングと比較するとわかりやすい、と増井氏は言う。

    ――増井
    「昨今ディープラーニングの普及が進んでいますが、ディープラーニングは完璧ではなく、いくつか問題点もあるんです」

    増井氏が教えてくれた問題点は以下の3つだ。

    ひとつは、データが大量に必要なこと。ディープラーニングでは、データの関係性でなくデータのみから学習を行うため、データがあればあるほど良い出力が期待できる。

    つまり、データの量ができることの複雑さに比例する。そのため、データが足りない場合は期待していた出力が得られなかったり、分析の精度が下がったりする。また、計算過程をシンプルにすればするほど、できることの複雑さは下がり、単純な推論しかできなくなっていく。

    そんなとき、スパースモデリングが有用となってくる。データ同士の「関係性」に注目するスパースモデリングでは、大量のデータは必要ない(もちろん、あるに越したことはない)。

    スパースモデリングを表すもっとも重要な数式。第一項は「説明できる」、第二項は「シンプルに」という意味で、この数式を使ってデータに潜む本質を抽出する。

    2つ目はマシンリソースの問題だ。ディープラーニングを扱うには、GPUなど大量の計算を回せるマシンが必要となる。前述の通り、スパースモデリングは大量のデータを必要としないため、FPGAなどのチップでも学習と推論を回せる。そのため、ディープラーニングと比較して消費電力が安上がりな面があるという。

    また、ディープラーニングでは膨大なデータに対してアノテーション(正解データをラベル付けする作業)が必要となるが、これもスパースモデリングでは少量のデータに対するアノテーションで済む。したがって、データ準備にかかる時間、工数を削減できる。

    ――増井
    「とあるプロジェクトで、GPUを4枚使い、ディープラーニングで学習に100分かかっていたAIモデルがありました。これと同等の精度を、スパースモデリングを用いて、CPUのみで、学習時間20分で達成しています。CPUのみなので消費電力も80%ほど削減できました。

    もちろん一般的に必ず良くなるという話ではありませんが、注目すべき数字です」

    最後に、説明可能性の点。ディープラーニングは大量のデータから特徴を抽出するという特性上、計算の過程が非常に複雑だ。そのため、解釈可能な形での説明が難しく、ディープラーニングの計算過程はブラックボックスとも言われている。

    対してスパースモデリングでは、「スパース性」を利用することで、できるだけ特徴を単純に解釈する。「入力と出力の関係をなるべくシンプルに説明するので説明可能な点が強み」だと増井氏は語る。

    ――増井
    「結局、ディープラーニングでは判断に対する『なぜ?』が導けません。OKかNGの2択だけなんです。スパースモデリングのような説明可能なAIであれば、なぜ異常が出たのかがわかり、原因を導けます」

    医療、製造、宇宙──スパースモデリングのユースケース

    具体的にスパースモデリングが向いている領域は製造業や医療分野だという。

    たとえば、医療分野ではMRIでの撮影にスパースモデリングが使われている。MRIでの撮影には、磁石を用いて体内の情報を収集し、そこから体内の断面図を生成する。しかし、鮮明な画像を生成するには、長い時間をかけて撮影する必要があり、患者に負担がかかる。

    かといって短時間で撮影すれば画像は荒くなる。そこで、画像のスパース性に注目し、体内の画像で本当に重要な部分を抽出することで、より短時間で鮮明な画像を再現できる。

    MRI 出典:パブリックドメインQ

    ビジネスに近いところでは、製造業の外観検査でスパースモデリングが活躍している。外観検査でディープラーニングを用いるには、良品、不良品を判定するために大量の異常データが必要だが、そもそも用意するのが難しい場合もある。

    そこでスパースモデリングを使うことで、データの少なさをカバーでき、かつ軽量なのでチップなどエッジにも組み込むことができる。これらの技術はハカルスの外観検査サービス「SPECTRO」にも使われているという。

    ほかにも、変わったところでは今年4月に話題になったブラックホールの撮影にも、スパースモデリングは使われている。

    エッジAIとも親和性が高い。ディープラーニングでは計算量が必要な特性上、自前で計算機を用意しない場合はクラウドで学習を行うが、工場などでは情報流出のリスクから、そもそもクラウドに接続できないケースが多い。

    スパースモデリングは軽量のため、エッジにモデルを置ける。チップなどにも組み込めるため、工場現場などでも使いやすいという。

    ディープラーニングのためにデータ収集にリソースをつぎ込むのは本末転倒

    ここまでスパースモデリングについて聞くといいことづくめだが、「データ量がそろっている状況では、スパースモデリングの精度はディープラーニングに負ける」と増井氏は語る。

    ――増井
    「データ量がある状況では、スパースモデリングはディープラーニングに精度でかないません。ただ、現実世界でデータと計算機が揃っている理想的な状況は珍しい」

    第4次AIブームと言われているものの、ディープラーニングに必要なデータをどう収集し、蓄積するかは、企業がAIプロジェクトを行う際のボトルネックになっている。外部パートナーと協力しようとしても、機密上、自社のデータを外部パートナーに委託できない企業も多い。

    つまり、リソースが足りないからAIを活用し、本来の業務を効率化したいのにも関わらず、データ収集に業務を割かなければいけない現状は、本末転倒ともいえる。そのような場合は、ディープラーニングではなくスパースモデリングの活用も選択肢のひとつだ。当たり前だが、自社の課題に適合する技術を使えばいい。

    ――増井
    「ディープラーニングはまさに今、さまざまな企業が取り組んでいるので知見を活かしやすい一方、スパースモデリングはまだまだ普及がこれから、というのもディスアドバンテージでしょう。そこはこれから我々のような会社が広めていきたいと思っています。

    現在、AIブームの恩恵を享受できていないような業界が、より本質部分に工数を割けるようにするために、スパースモデリングも活用し課題解決をしていきたいと思っています」