プログラミング不要のAI開発ツール登場、マウスで操作するだけ

プログラマーもいない。データサイエンティストもいない。そもそも開発未経験だ。そんな組織でも、ボタン操作だけで独自の物体検知AIシステムを構築できるサービスがはじまった。

株式会社ヒューマノーム研究所は2月18日、「Humanome Eyes Workstation(ヒューマノーム・アイズ・ワークステーション)」の販売開始を発表した。ヒューマノーム・アイズ・ワークステーションは、プログラムを1行も書くことなくボタン操作で開発可能なプラットフォームだ。

本製品は、専門人材の育成や開発の外注前に、まずは自分たちでトライアルAIを作って試すことで「今、本当に欲しいAI」を見極めて本格開発に移りたい企業向けとなっている。

>>「Humanome Eyes Workstation

AI作成への第一歩を後押しする統合システム

プレスリリースによると、人工知能開発に適した高性能ハードウェアに、AI学習環境とプログラミング不要なアノテーションツールをセットアップ。ツールを受け取ったその日から物体検知AIの開発に専念できる環境になるそうだ。

AIの導入にはハードルが多く存在している。同プレスリリースでも

「『AI開発の課題設定をどうするか』『どんなデータを集めるべきか』といった実際の構築前に決定すべき設定や、『AI開発に必要なコンピュータの組み方がわからない』『ハードウェアの設定が出来るエンジニアがいない』というハードウェアに関連する課題、また『どのようなアノテーションを作ればよいのかわからない』『想定のパフォーマンスが出ない』など、実際に作りはじめてから見える問題など、さまざまなレイヤーの障壁を乗り越える必要がある」

と記されている。

Humanome Eyes Workstationでは、こういった頻繁に遭遇するハードルに着目し、つまずくポイントをあらかじめ取り除いているという。

また、別途オプションにはなるものの、ヒューマノーム研究所が今までの研究・共同開発で培ったノウハウをもとに、質問や疑問に応えるコンサルティングサービス、ならびにユーザーの要望に応じた追加機能の独自開発サービスも提供されるとのこと。

実際のAI構築に触れられ、データサイエンスや開発における流れをつかめることから、AI教育用途としての利用もできるそう。

学生向けの「AIに関する授業」も始まっている

2020年度からプログラミング学習が必修化されることもあり、中学や高校などでもAIに関する授業が始まっている。

今年1月には、大妻中学高等学校で「次世代のAI人材育成」をテーマとしてヒューマンアカデミー株式会社と日本郵便株式会社が共同で授業を実施した。

授業の内容は、社会問題の解決と、AIの利用を学ぶことが中心。また、Pythonを使用したAIアプリの開発にも挑戦したそうだ。

AIの開発が手軽になれば、一層身近な存在になることは間違いない。プログラミング不要なので、プログラミングそのものへの学習時間をすっ飛ばせるのはいいことなのかもしれない。

2020年はHumanome Eyes Workstationのようなお手軽AI開発ツールがさらに登場しそうだ。

>>「Humanome Eyes Workstation

「企業が抱える課題はAI開発会社が見つけるべき」2020年の企業とAIの付き合い方

レッジは2019年12月にAIのスペシャリストを招き「AI TALK NIGHT vol.14」を開催した。今回のテーマは「自然言語×音声×画像のオムニAI活用~2020年に持つべきAI戦略~」だ。

多くの企業でAIが使われ始めている。特に昨年頃から、AIに対する期待感などが徐々に現実的な目線になってきたといえるかもしれない。身近な存在になりつつあるAIに、どのように向かい合っていくべきなのだろうか。これからAIを導入しようとする企業には何が必要で、どういったアクションを起こせばいいのだろうか。

今回のAI TALK NIGHTには、構文解析技術を活かした自然言語処理を得意とする株式会社Insight Tech(インサイトテック)から代表取締役社長 CEO 伊藤友博氏、コールセンター向けに音声から感情を解析する株式会社Empath(エンパス)からCo-founder and CSO 山崎はずむ氏、手書きの書類をテキストデータ化する株式会社アジラからCOO 三村完氏の3名に登壇いただき、「2020年のAI」との向き合い方についてトークセッションをした。

本稿ではAI TALK NIGHT vol.14の模様をレポートする。

あらゆる情報を活用し価値化させる「オムニAI」という考え方

――伊藤
「2020年に求められるのは『オムニAI』という発想だと考えています。ビジネス課題が複雑化している現状、“ひとつのAI”だけでは解決できない場面が増えてきています」

伊藤氏いわくオムニAIとは、「得られるあらゆる情報を活用し、これらを構造化・価値化するAIを組み合わせ、総合的に高度な意思決定につなげること」だそうだ。

現状、テキスト、手書き文字、音声、画像情報などの“非構造化データ”を活用できるようにはなった。しかし、各場面でのAI活用は進んでいるものの、個別活用で終わっていることが多いという。

ただし、伊藤氏はあくまでも「いまあるものを組み合わせて使うことが目的ではなく、各企業がもつ課題に対し、手元にあるデータをどういうふうに使うか、そしてどのような価値を生み出せるのか。AIを使うのではなく、AIを使って何ができるかが大事です」と言う。

――伊藤
「オムニAIの考え方を使えば、製造業での失敗ナレッジの体系化もできるのでは、と考えています。

たとえば、作業日報から、問題事象を対象とした因果関係を可視化。また、行動ログを画像解析し、テキストデータを組み合わせると『何をしたから失敗したのか』という原因発覚および知見を広めることができるようになると思います」

このオムニAIという考え方は、顧客から求められて生まれたものなのだろうか。

――伊藤
「オムニAIは実務のなかで多くの企業と議論する中で生まれたコンセプトです。多くの企業は、AI活用に向けたPoC(概念実証)をやっているけれど、ソリューション起点になっているように感じています。ただ、“課題ありき”で取り組まないと本質を見失うのではないか、と思ったのです
――山崎
「現場に行くと『データはあるから何かやってほしい』というオーダーはよく受けますよね。要するに、AIを使って目の前の課題を解決するのではなく、AIを使うという手段自体を目的化している企業がいらっしゃいますね」

――三村
「さまざまなデータを掛け合わせて新たな価値を生み出すことは非常に有益でしょうね。私が商談に行った際も、AI OCRで帳票の文字を識別したあと、特定の情報だけを抽出してデータをまとめてほしいと言われました。弊社アジラは文章を読み取るのが領分なのですけどね。

だからこそ、テキストから得られる情報の仕分けができるインサイトテックさんと協力して、新たな情報価値を顧客に提供する、みたいなことはオムニAIならではの考え方でありメリットですね」

――山崎
当然、課題を解決するっていうのが大事なので、単独のデータで解決できて、単独のAI技術で解決できるなら、それに越したことはないです。データはいっぱい持っているけれど、何をしたらいいのかわからない、という企業から連絡が来たらコンサルティングから入ります(笑)」

「なんでもいいからAIを使おう!」という気持ちが先行すると、AIの活用自体が目的になり、本質的な課題の解決に至らないことがある。

課題解決のために、複数のデータをAIで集めたり分析したりすることで、大きな価値を生み出すことはオムニAIならではの考え方。2020年は、データをさまざまな角度から見て、分析することが求められそうだ。

AI開発会社は企業に対して課題設定は求めていない

さて。今回トークセッションに参加いただいたのは、自然言語処理、感情認識、画像解析を行う3社。当然ながら、「AIを使いたいんだけど……」という相談が日々舞い込んでくるそうだ。

セッション中には、開発会社目線で「AIを導入したい企業」に対して求めるものは何かあるのか、という話題になった。AIを導入するにあたって求められるのは先述のとおり課題だ。ただ、AIを導入したい企業は、具体的な課題が見えないまま開発会社に相談することも多いと思われる。

AIを導入したい企業は、どういった提案だと開発会社に対して話がスムーズに進むのだろうか。また、AIに対するリテラシー含む基礎知識をどれだけ備えていればいいのだろうか。開発会社3社の商談・現場話へと話が移った。

――山崎
「ぶっちゃけて言えば、導入を検討したり、相談しに来てくださったりする会社に対して、スキルや知識を求めることはないです。さらに突き詰めて言えば、具体的な課題がよくわかっていない状態でも問題ないです。

ぼくら(AI開発会社)自身が特定の課題に対して刺さるプロダクトを作れていないと、意味がいないのではないかと思っています。だからこそ、導入を求めている企業が課題を探すのではなく、開発会社側が業種・業界の抱えている課題を見つけて、それを解決できる製品なりサービスを作ることを求められていると思っています」

――伊藤
「当社としても同じようなスタンスです。たしかに、課題が明確になっていれば、AIの導入、活用までに必要なステップ数を減らすことはできます。ただ、大きな企業だとしても自身で課題を見つけてまとめるのは簡単なことではありません。

なので、我々AIベンチャーが課題を整理する段階から入り、課題への対応手段としてAIが活用できるのかを議論するのがいいのではないでしょうか」

――三村
「課題が見つからない、ということであれば無理してAIを使わなくてもいいのではと思っちゃいますけどね(笑)。とはいえ、OCRなどの技術は、最近では広く知れ渡ってきたこともあり、具体的な抱えている課題を提示してくださる企業も増えてきました」

他社の成功事例を探すことがAI導入の近道

AIを利活用するためには企業側が課題設定をする必要がある、と頻繁に言われる。しかし、開発会社は課題を整理する前に相談してほしい、という。では、AI開発会社にはどのように相談すればいいのだろうか。

――三村
「AIを使おうとしている企業は、もっとワガママになってほしいです。いまでは多くのAI導入事例も公開されているので、『うちの会社もアレをやりたい!』などという相談でもありがたいです」
――伊藤
「自然言語処理については一般的になりつつある領域だと思います。すでにテキストマイニングなどに着手されていて、さらにブレイクスルーしようと考えている企業などからの問い合わせは多いですね。最近では業務課題に対応したAI活用事例も増えているので、参考になるケースは少なくないと思います」
――山崎
「当社の場合は、最初に『〇〇と××が解けます』のようにできることを提示しているので、それにフィットした企業から問い合わせいただくことがありますね」

――三村
「入力業務がある企業だと、OCRとRPAの連携はある意味で定番になりつつあります。おふたり同様に、求める技術がきっかけになって連絡をいただくことが増えています」
――伊藤
「これからAIを使おうとしている企業が参考にするのは『成功事例』だと思います。いまではさまざまな事例が出ているので、まずは参考にするところから始めて、それから開発会社に問い合わせるのがスムーズかもしれません」

AIは各企業の業務を効率化する手段のひとつとして存在している。これからAI導入を検討する企業は、スタート地点を「AIを使う」ではなく、「同業他社がAIで作業工数を削減している」のような“気づき”にすることが重要だ。

2019年はさまざまな企業でAIの導入が始まった。同時に、各企業の導入実績なども広まっている。そのため、気づきを得られる機会は多いだろう。

気づきを得るために他社のAI導入事例を探すなら、さまざまな業種のAI導入事例を500以上も掲載しているレッジのプラットフォーム「e.g.」を活用するのもおすすめだ。

今年2020年のAIはどのように変化していくのか

トークセッションの最後に、登壇した3社それぞれに2020年のAI業界の展望を聞いた。

――三村
「『OCR』や『音声認識』などの具体的なキーワードを扱う人が増えているように感じます。いまはAIの導入にあたって『課題設定が必要』と言われることが多いですが、今後はOCRなどの具体的なキーワードに紐づけた具体的な課題を解決しにいく流れが出てくるのではないでしょうか。

AIが身近になり、できることが理解されてきたので、さまざまな人がAIに対して知識や認識を深めていく時期だと思っています」

――山崎
「三村さんがおっしゃるように、『何が解けるか』を軸にした話が増えていくでしょう。AI開発会社目線の話をするなら、汎用的なモデルを作ることが求められそうだと考えています。

今は、案件ごとの受託開発が基本となるビジネスモデルが多いですが、今後は、個別に特化したモデルではなく、学習を必要とせずに“ある程度”使えるようなAIを生み出すことがビジネス的に勝負になりそうです

――伊藤
「AIでできることが広く知れ渡ってきたので、今まで以上に課題を見つけることが大切になると思います。ただ、ひとつの情報やデータでは課題解決力が不足するかもしれません。

したがって、さまざまなAIを活用するオムニAI的思考があると、抱える課題への最適解を求められたり、新しい価値を生み出せたりすると思います

AIがアニメを高解像度に変換 HDは4Kに、フルHDは8Kに

株式会社ラディウス・ファイブはAIによってアニメーションを高解像度に変換できるサービス「AnimeRefiner」の開始を発表した。独自のAIモデルによって、アニメを縦横4倍のサイズに高解像度化できる。

アニメ『ミルキーパニック -twelve-』©TOMASON upconverted by RADIUS5 Inc.

>>「AnimeRefiner

ラディウス・ファイブといえば、AIの特性と人(絵師)の特性を活かしたハイブリッドな全身イラスト制作サービス「彩ちゃん+」などを提供している会社だ。

ノイズ除去、ぼやけ鮮明化などに対応

AnimeRefinerはDeep learning(深層学習)を活用することで、従来の画像を引き伸ばして中間を補間する変換(アップコンバート)技術では不可能だった高品質な状態での高解像度化が可能だ。

HDサイズのアニメなら4Kサイズ以上に、またフルHDのアニメなら8Kサイズにまで変換できる。また、ラディウス・ファイブの担当者に「4Kや8Kは、ネイティブな4Kになるのか」と問い合わせたところ

「低解像度の映像から高解像度の映像をAIが推定して生成しています。そのため、疑似ではなくリアル4K、8Kの映像となります。また、その過程でさまざまなノイズを除去しているので高精度かつきれいな映像を創りだしています」

と回答を得られた。

プレスリリースでは「低解像度な動画と高解像度な動画の特徴を大量に学習したAIは、これまでの技術とは比較にならないほど美しくアニメを高解像度化することができます」とうたっている。

主な特徴については以下の動画と画像で実際に見てほしい。

さまざまな種類のノイズを除去


©TOMASON upconverted by RADIUS5 Inc.

アップコンバートによる映像のぼやけを鮮明化


©TOMASON upconverted by RADIUS5 Inc.

陰影もキレイに


©TOMASON upconverted by RADIUS5 Inc.

膨大な予算と時間がかかる4K化

4Kテレビなどの普及にともない、4Kコンテンツへのニーズが高まっている。しかし、4Kコンテンツを制作するには、撮影・制作機器などが4Kへの対応必須で、膨大な投資を求められる。そのため、動画配信サービスなどでは、4Kコンテンツがいまだに不足している現状があるそうだ。多くのコンテンツがフルHDサイズのままだったり、実際の4K品質とは異なる“4K相当”に変換されたりした映像を視聴しているという。

とくに、アニメにおいて4K制作をするためには、主流であるフルHD(1920×1080)の4倍サイズ(3840×2160)での制作が必要だ。つまり描くサイズが4倍になるため、制作コストや工数をさらに圧迫する。同様に、過去のアニメタイトルに関しても、本来の4K品質にリマスターするには、膨大な予算と時間を必要とする。

AnimeRefinerであれば、過去のアニメタイトルを4Kテレビ用に高解像度化できる。今後制作するアニメタイトルにおいても4K・8Kサイズのコンテンツ制作にかかる現場の負担を低減可能だそうだ。

コンテンツホルダー向けに無料体験キャンペーンを実施

ラディウス・ファイブは新サービスリリースを記念して、高解像度化を希望するコンテンツホルダーを対象に先着10作品限定で「Anime Refiner」無料体験キャンペーンを実施する。

募集期間:2020年2月19日~2020年3月31日 ※限定10作品
申込方法:WEBページの問い合わせフォーム(https://animerefiner.com)よりご連絡ください。
※無料キャンペーンには適用条件がございます。詳しくはお問い合わせフォームをご確認ください。

>>株式会社ラディウス・ファイブ

ホテルでよくあるWi-Fi接続できない問題、話しかければ解決へ

Wi-Fi設備が整っているビジネスホテルが増えている。それこそ、「アパホテル」は全客室でWi-Fiを使えるようだ(公式サイトより)。

ただ、ごくまれに「Wi-Fiを使いたいのに、パスワードがわからない……」という問題に直面することがある。客室に設置されているテレビやポップ、フロントで渡されるホルダーなど、Wi-Fiのパスワードはさまざまな場所に記載されている。しかし、ホテルによって記載箇所は千差万別。なんらかの拍子に、本来記載のあるはずのポップが無い、そんな状況もある。

さて、ブリッジ・モーション・トゥモロー株式会社(以下、BMT)は2月18日、新たに開発したホテル向け客室用AIスピーカーを発表した。このAIスピーカーはかゆいところに手が届く、そんな製品なのだ。無論、Wi-Fi問題も解決できる優れもの。

写真手前の黒い球体がAIスピーカー

チェックアウト時間まですぐに確認できる優れもの

BMT社が開発したAIスピーカー「Mr.Alfred」は、2月21日まで幕張メッセで開催中の「HCJ2020」(外部サイト)でお披露目となった。

Mr.Alfredはいわゆる「スマートスピーカー」などとも呼ばれる製品群のひとつで、ほかの製品同様に音声で操作できる。客室に設置され、“ホテルあるある”的な質問を音声で問いかけると、それに対する回答をもらえる。

主な対応可能質問は以下。

  • Wi-Fiのパスワードを教えて
  • チェックアウトは何時?
  • コインランドリーはどこ?
  • タクシーを呼んで
  • 朝食は何時から?
  • レストランはどこ?
  • テレビをつけて
  • 電気をつけて
  • フロントに電話して

つまりは、これまで客室で困ったことがあった場合、いちいちフロントに電話していたことをAIスピーカーで解決できるようになったのだ。

Wi-Fiを接続する際、SSIDを検索したりパスワードを入力したりすることを考慮して、回答画面は自動で切り替わらない仕様にしている。便利な仕様だ。※SSIDやパスワードは編集部でモザイク加工

また、AIスピーカーに質問した内容を「音声」だけで回答するのではなく、テレビに表示可能なのも特徴的。ホテルにあるコインランドリーを使う際、そのコインランドリーがいま空いているかどうか、そのほかではホテル併設のレストランの混雑具合などもわかるという。

コインランドリーの稼働状況を聞いてみたら、使用状況をテレビに表示すると案内される

テレビには各コインランドリーの稼働状況が映し出される。洗濯が終わるタイミングもAIスピーカーに話しかけるだけでわかるのだ

客室用AIスピーカーはホテルの人手不足解決のため

BMT社の方はMr.Alfredの役目について次のように話した。

「いま、ホテル業界でも人手不足という問題が各地で起きています。そのため、Mr.Alfredは人手不足の解決を目指しています。

AIスピーカーが質問に回答すれば、フロントの方々も問い合わせ対応に追われることがなくなります。また、利用する客側もスピーカーに話しかけるだけで質問に対する答えを得られるので、フロントへ電話がつながるのを待つなどのストレスを解消できるでしょう。

くわえて、日本語だけでなく、英語や中国語にも対応しているため、海外からのお客様も使っていただけると思います。」

ちなみに、Mr.Alfredに搭載されているAIアシスタントは、LINE株式会社の「Clova」だ。なので、Mr.Alfredでも「今日の天気は?」「いま何時?」「ラジオをかけて」「音楽を流して(※)」といったClovaの標準機能も利用できる。
※音楽再生は各曲30秒の試聴となる。LINE MUSICチケットを購入済みのLINEアカウントをAIスピーカーで利用すれば、楽曲をフル再生できる。

実はホテルでのClovaの活用は昨年6月に実施された「LINE CONFERENCE 2019」で発表されていて、今回ようやく公開できる状態になったとのこと。

BMT社が開発したClovaを搭載するMr.Alfredは、今夏から「リッチモンドホテル プレミア京都駅前」に順次導入予定だ。HCJ2020でお披露目になったMr.Alfredはまだ完成一歩手前、という段階らしく、これからブラッシュアップをさらに重ねるそうだ。

実際に筆者もHCJ2020で試用したが、「Mr.Alfredの使い方」がカギを握りそうだ。というのも、ふだんからAIスピーカーを活用している人であれば、

「ウェイクワード(Mr.Alfredの場合は『ねえClova』)+質問事項」

を言えばいいが、そもそもの使い方がわからない人のための対策を練る必要がある。Mr.Alfredの取扱説明書的なポップを別途用意することが最も簡単そうだが……。

もちろん、先述したとおり「かゆいところに手が届く」製品なのは間違いない。いわゆるビジネス層などをターゲットとするホテルであれば、使い方の説明も端的に済むだろう。また、使い方に関しても、Clovaでいえばトヨタの自動車や進研ゼミの教材にも使われるなど、多くのシーンで我々の生活に浸透しつつある。つまりは、導入事例を増やせば、「ホテルの客室はAIスピーカーに任せる」ということがスタンダードになり、使い方問題も解決できそうだ。

通信講座「進研ゼミ中学講座」の一部コースで使われる専用タブレットにClovaが搭載される

というか、ホテルの客室とAIスピーカーの相性はかなりいいと感じたので、Mr.Alfredの導入が進んでほしいと切に願うばかりだ。

>>LINE Clova プレスリリース
>>ブリッジ・モーション・トゥモロー株式会社

精度は8割程度。いまの自然言語処理では“できない”こと

レッジは2019年11月、「自然言語処理の活用トレンドとビジネス実装の勘所」というテーマで、AI TALK NIGHTを開催した。シリーズとしては、13回目の開催となる。

今回はライオンブリッジベイシス・テクノロジーの2社が登壇。海外と日本の比較や、最新の事例を交え、自然言語処理のビジネス活用の裏側が語られた。本稿ではそのパネルディスカッションの模様をお伝えする。

登壇者
Cedric Wagrez (セドリック・ヴァグレ)氏 ライオンブリッジジャパン株式会社 AI事業部長
フランス出身。開発ツールの会社(インフラジスティックス)、オンラインプラットフォーム(Gree)、受託開発の会社を含めて、日本のIT企業で15年以上の経歴を持つ元エンジニア・プロジェクトマネージャー。2016年より、オペレーション部長として株式会社Gengoへ参画し、2018年にはGengoがLionbridgeの子会社化。現在はLionbridgeの日本AI事業部長に就任。海外のお客様との取引経験が豊富で、日本にもベストプラクティスの知識や、革新的なAI導入の支援をすることに関心を持っている。

長谷川 純一氏 ベイシス・テクノロジー株式会社 代表取締役
日本支社の代表取締役を務めるとともに、ベイシス・テクノロジーのアジア地域の事業戦略、営業、マーケティングを担当。これまでも新しい市場や事業モデルの創出を積極的に追及してきており、最近では、インドネシアを始めとする開発途上国での金融包摂を推進するスタートアップの起業。それ以前は、eコマースの黎明期にアマゾンの日本事業を成功裡にスタート、PeopleSoft/Oracle でERPシステムの開発および困難な導入プロジェクトの完遂、PowerBuilderを日本市場に展開しクライアント/サーバー コンピューティングの浸透に貢献。法政ビジネススクールの客員教授も務める。


モデレーター
飯野 希
株式会社レッジ 執行役員/Ledge.ai編集長

AI活用ニーズから見える、日本と海外の決定的な差

まず、日本の自然言語処理の現在地を知るべく、頻出する課題や海外との比較について語られた。

――飯野(モデレーター)
「最近の自然言語処理領域では、どのような課題を持ったクライアントが多いでしょうか?」
――長谷川
「最近は、非構造化テキストが増えてきているので、それを有効活用したいという相談をよく受けます。たとえば、VoC(Voice of Customer)のようなユーザーの声を解析したいという案件もあれば、従業員のセンチメント分析(感情分析)をしたいという相談もあり、社内外を問わず、テキストデータの使い道を相談されることが多いです。ただし、溜まっているテキストデータに業界ごとの特別な差異があるかというと、そうではありません」

長谷川 純一 ベイシス・テクノロジー株式会社 代表取締役

――長谷川
「基本的には目的が重要で、ビジネスバリューを生む、社内を説得できるソリューションにする、そういうアウトプットを出すためにデータが分析に足るようなものか、という観点で差異はあります。

たとえば、新規製品開発のフィードバックをする場合であれば、VoCや顧客の不平不満のデータはバリューがあると言えます。やりたいことに必要なデータが蓄積されているかが重要です」

Cedric Wagrez (セドリック・ヴァグレ) ライオンブリッジジャパン株式会社 AI事業部長

――ヴァグレ
「日本と海外でも、自然言語処理の実情は大きく異なります。海外の案件では、10〜30の多言語で機械翻訳する、という案件が頻繁にありますが、日本は日本語に絞った案件が多い印象です」
――長谷川
「海外は最初からグローバルな自然言語ニーズがありますよね。日本は日本に閉じたニーズが多い。最近では、GoogleやFacebookのようなプラットフォームベンダーがアルゴリズムを公開していて日本語で使うことができますが、アメリカはパブリックなデータの可用性が全然ちがう。日本ではまだそういったパブリックデータは限定的で、そこが差だと思います」

“なんちゃってサマリー”が多い。今の自然言語処理ではできないこと

続いて、自然言語処理の具体的な活用シーンとして、“会議の効率化”について語られた。AIの活用シーンで頻出するテーマだが、その実情はどうなっているのか。

――飯野(モデレーター)
「具体的な活用シーンについて話を聞いていきたいのですが、会場からは会議の効率化についての質問がいくつかきていますね。会議でのAI活用は実用的になってきたのでしょうか」
――ヴァグレ
「会議の効率化と言っても、いろいろなパターンがありますよね。議事録を自動作成したり、会議参加者の誰が何を喋ったか、誰の感情が昂ぶっているかなどを分析したり、用途はさまざまです」
――長谷川
会議の会話を表面的にサマリーするのは、5W1H的に構造を作ればそれなりに見えますが、実は難しいテーマの一つです。MITのパトリック・ウィンストンが、シェイクスピアの本をマシンに読ませて、それを何文字で要約させる、という取り組みをしていました。

しかし、コンピューターにストーリーを理解させ、それに基づいてコンピューターに文章を書かせるというのは、まだ実用段階に入っていないです。今の自然言語処理でサマリーしているものは、ポイントを少しだけ掴む目的であれば十分かもしれませんが、現段階では、なんちゃってサマリーが多く、実用化はそれでもよいという領域に限られています」

――ヴァグレ
「会議の発言を書き起こすサービスはいくつも出てきていますが、話者の感情分析をするためのひとつの壁は、発言と感情が必ずしも一致しないことです。発言の内容だけでなく、文脈・声色・声量などによって、怒っているのか喜んでいるのか、初めて分かります。

そのため、テキストから感情分析をした場合と、音声から感情分析をした場合で結果が異なることもあります。日本ではEmpathという企業が、音声から感情分析をしていて非常におもしろいです」

――飯野(モデレーター)
「サマリーは、“抽出”と“抽象化”のふたつの軸がありますよね。先ほど長谷川さんがおっしゃったパトリック・ウィンストンの取り組みは“抽象化”のアプローチで、“抽出”と比較して難易度が高いです。“抽出”はその精度を求めるほど、会議の何が大事なのか、というそこにない新たな情報を作ることになる点が、難しいと言われていますね」

個人情報なしで、精度の高い広告配信を。フランス企業の事例

自然言語処理の活用法は、業務効率化だけではない。ニーズや倫理といった世の中の変化に合わせて、技術を活用することでビジネスの価値を高めることができる。最新事例を交え、登壇者2名はこう語った。

――飯野(モデレーター)
「ビジネスインパクトをどう起こすのか、というテーマに移ります。例えば、議事録作成のようないわゆる業務効率化以外に、増えてきた活用法、もしくはこれから増えていきそうな活用シーンはあるのでしょうか。もし事例があれば合わせてご紹介いただけますか」
――長谷川
「リスク回避も一種のビジネスインパクトだと言えますね。たとえば、バンクオブイングランド(英国の中央銀行)のアンチマネーロンダリングに関する事例が挙げられます。アンチマネーロンダリングの主な作業は、膨大なテキスト情報を収集し、関連するものを結び付けリスクを分析することです。今ではデータサイエンティスト100名近くがその作業を効率的に行なっているそうです。

詳しい話は避けますが、金融機関にとってのリスク回避は、大きなビジネスインパクトです。一般の金融機関でも、そうしたAI活用が進むのではないでしょうか」

――ヴァグレ
「ヨーロッパでは近年、個人情報の取り扱いが非常に厳しくなってきていますが、フランスのとある広告会社のおもしろい事例があります。

その会社は、個人情報を取得して広告を配信するのではなく、ユーザーが読んでいるページのテキストを読み取り、かつポジティブかネガティブか記事内容を判別して、ポジティブな場合のみ、それにまつわる広告を配信する、といった取り組みをしています。ポジティブな場合のみ配信する理由は、ネガティブな情報を参照する広告は、ユーザーが求めているものではない可能性が高いからです」

――飯野(モデレーター)
「テキストデータの活用は、本当に幅広いですよね。これから取り組む企業は、まず何からはじめればよいのでしょうか?」
――長谷川
「自然言語処理と言っても裾野が広いです。SFA上に溜まったデータを形態素解析して検索しやすくする、などは我々もご支援することもありますが、前提として何を分析したら喜ばれるかを決めることが必要です。社内なのか社外なのか、日報なのか過去の契約書なのか、そういったものを共有したりその裏にあるものを発見できるようになった結果として、何がよくなるのか、っていうところから考えることが大事だと思います

自然言語処理では、目的と分析対象としているテキストの質によってアプローチはまちまちです。まず一歩目の動きは、身近にいる自然言語に詳しい人に、こういうことやってみたい、相談するのがいいんじゃないでしょうか」

8割の精度からビジネスバリューを見出す

――ヴァグレ
「目的が、『AIを作りたい!』になっている企業は危ないですよね。AIは強い道具ですが、本質的な目標はプロセス改善や、顧客に新しい価値を提供することだと思います。なので、PoCを進める際にも、KPIはシンプルであるべきで、問題が明確に定義されていることが重要だと思います」
――飯野(モデレーター)
「段階的に、解くべき課題を定義していくことが大事だということですね」
――長谷川
「そうですね、自然言語処理でできることにも限界があるので、その限界の下でもビジネスバリューがあることを見出すべきです」

――ヴァグレ
「99%の精度を求められることがありますが、現実的ではありません。どこをAIに任せて、どこを人がやるのか、そしてAIという道具を使うべきところはどこなのかを明確にすれば、99%の精度がなくても十分にビジネスになりうるのではないでしょうか」
――長谷川
所感では、今の精度は8割くらいです。当然、鍛えれば鍛えるほど92%、93%くらいまではいきますが、今度はROIがどんどん悪くなってくるので、どのくらいの精度を求めるのか、見極める必要があるでしょう」

本イベントの最後に、これからテキストデータの活用に取り組もうとしている企業へのアドバイスをもらった。

――長谷川
「活用されていないテキストや文書は、社内外に膨大な量が眠っています。コスト削減の面もあれば、収益ゾーンに結びつくような新たなビジネスにつながるかもしれないし、リスク回避のような使い方もあるかもしれないです。これって何かに使えないかな、と活用法を、常日頃からイメージしておくと、いざやってみようという時に、アイデアが出てくると思います」
――ヴァグレ
「チャットボットの領域はこれからも活用が増えていくと思いますが、その活用法はますます変化していくでしょう。IoTやロボティクスの分野とも融合し、言語+コンテキストの観点が重要視されるようになります。ユーザーがどんな表情をしているのか、ユーザーが会話の先に何を求めているのかを意識して、技術を取り入れていくことが必要です」

高齢ドライバーの運転技能を機械が判定、危険を検知したら音声通知

たびたびニュースで報じられる高齢者の自動車運転事故。社会の高齢化にともなって、高齢ドライバーの事故防止対策は各地での課題となっている。

高齢ドライバーの安全運転を支援するために、オムロン株式会社と近畿大学は2月13日に「リアルタイム運転技能診断システム」の実証実験の開始を発表した。教習所向けのプロダクトとなっていて、70歳以上の免許更新時に実施される「高齢者講習」における実車指導時に活用される見込み。

機械による評価や通知が技能向上指導に有効

高齢ドライバーリアルタイム運転技能診断システムの概要

実車指導では、運転中に同乗する教官からの指導と、運転後にドライブレコーダーの映像をもとにした事後指導が実施される。今後より多くの受講者に効率的に対応するため、機械化の導入や指導の効果を高めるための取り組みが求められていたそうだ。

今回発表されたリアルタイム運転技能診断システムは、車両に取り付けたオムロンのドライバー安全運転管理サービス「DriveKarte」と近畿大学理工学部 多田准教授と共同開発したもの。DriveKarteは、車載センサーと呼ばれるもので、車両の走行状態とドライバーの運転集中度の両面から安全運転をサポートするサービスだ。2018年4月からサービスを開始している。

DriveKarte公式サイトより

そのDriveKarteのカメラやセンサーから出力されるドライバー画像、位置情報、加速度などの情報を組み合せて、リアルタイム運転技能診断システムが自動で運転技能を評価する。危険運転を検知した場合、音声によってリアルタイムで通知する仕様だ。

多田准教授の開発した運転技能評価と通知システムは、教習所の指導員の安全運転知識をデータベース化し、ドライバーの技能を自動評価できるようにしたもの。プレスリリースによれば、機械によるリアルタイムでの運転評価や通知が高齢ドライバーの運転技能向上の指導に有効だと確認されたという。

人による指導に加えて、機械の客観的な判定による指導によって、高齢ドライバーへの指導力向上が期待されている。また、教官(指導員)の負担軽減も見込まれているそうだ。

>>プレスリリース

事故を防ぐ「目」の役目を担うAI

危険運転防止のためのAIは今回の自動車での活用だけでなく、さまざまな分野・領域で事例が増えつつある。

小田急線内におけるAIの活用例

2月6日には、小田急電鉄株式会社が踏切内の安全性向上を目的とした実証実験をすると発表している。これは、小田急線内の踏切に設置された監視カメラが写した映像をAIが解析。その解析した内容をもとに、異常状態だと判断するとアラームが鳴る仕組みだ。

将来的にはAIによる解析結果を用いて、付近を走行する列車を自動で停止させるなど、踏切での事故を未然防止できる監視体制の構築を目指している。

レッジが開発に参画した不動産法人営業支援ツール「CCReB AI」2020年4月正式リリースへ

Ledge.ai運営元のレッジは、CRE戦略(Corporate Real Estate の略。経営戦略の一環として不動産を有効活用すること)支援を行うスタートアップ企業であるククレブ・アドバイザーズ株式会社の不動産法人営業支援ツール「CCReB AI(ククレブ・エーアイ)」の開発に参画しました。同ツールが2020年4月に正式リリースとなります。

関連プレスリリース:AI特化型メディア「Ledge.ai」を運営するレッジ、ククレブ・アドバイザーズの「不動産売却動向予測システム(CCReB AI)」の開発に参画

AIが中期経営計画・有価証券報告書を解析しスコア化

従来、不動産営業においては、あてもなく企業のwebサイトを検索することによる労働時間のロスや、中期経営計画などの膨大な開示資料を「自分の勘」で取捨選択することによる営業機会のロスなどが発生していました。

2020年に中期経営計画の更新を迎える企業は約400社(ククレブ・アドバイザーズ調べ)あると言われており、不動産業界にとって、これらのロスの削減が喫緊の課題となっています。

CCReB AIは、「中期経営計画」をAIエンジンが解析、不動産に直接・間接的に関連するキーワードを、適時開示後最短1日で解析し、スコア化。不動産ニーズ(売買、流動化、有効活用、賃貸、新規出店、工場新設など)のある企業を効率的に抽出するツールです。

「有価証券報告書」からは、アプローチ部署のキーパーソン、不動産を賃貸・賃借している先も抽出可能。有価証券報告書を一つひとつ確認する手間からも開放され、労働時間の削減や営業精度の向上といったメリットが見込まれます。

ククレブ・アドバイザーズは、CCReB AIを不動産テック事業の主力事業と位置づけ、今後も、CCReB AIのバージョンアップと、新たな不動産法人営業支援ツールを開発していく予定。

レッジは、こうしたAIプロジェクトのコンサルティングのほか、Ledge.aiの運営やAI関連のイベント開催を通じ「AIをはじめとする最先端技術をなめらかに社会に浸透させる」ため、引き続き活動していきます。

地方を救う“課題と技術をつなぐ人材”

課題先進国と呼ばれる日本は、高齢化を始め多くの課題を抱えている。一方で、それらの課題をAIやIoTなどのテクノロジーで解決ができれば、課題“解決”先進国として、グローバルに起こるであろう社会課題に対し、一石を投じることができるとも期待されている。

そんな中、ユニークな課題を多く抱える地域は、どのようにAI活用を進めていけば良いのか?長崎県立大学のセキュリティ学科で教鞭を執る加藤雅彦教授は、「人とテクノロジーの接点を工夫することが重要だ」と語る。

加藤氏が専門とするセキュリティ領域のAI活用を交え、地方のAI活用について話を聞いた。

深刻化する地方課題とギャップ

小学生の頃、ゲームをやるためにBasicに触れたことがきっかけでコンピュータの世界に興味を持ったという加藤氏。2016年、長崎県立大学教授に着任し、ネットワークセキュリティに関する研究を行なっている。

――加藤
「セキュリティの領域では、ネットワーク攻撃に対する検知などにAIが活用されています。例えば、『この通信の後にあの通信がきたら、攻撃である可能性が高い』という判断を行ったりするのですが、これまで、属人的な作業で行われていました。

しかし近年、データ量が急激に増加し、人の目だけでは見切れない膨大な数の通信が行われるようになりました。そこでAIの活用が進められています。具体的には、悪意のある通信パターンをAIに学習させ、アラートを出させる、といったところにAIを活用しています。

攻撃側がAIを活用しているという話も聞きますし、世界的にみても、セキュリティの領域では攻撃と防御が『自動vs自動』という構図に近づいてきています」

加藤氏によれば、ハードウェアや学習データへの攻撃など、時代時代のテクノロジーによってネットワークの攻撃は変化していくとのこと。それゆえ、セキュリティ市場は、なくなることはない市場だという。

セキュリティ領域だけでなく、今は多様な領域にAIが浸透していく過渡期と言える。多くの課題がテクノロジーで解決されようとしているが、日本特有の課題については、“テクノロジーと人の接点”が重要だと語る。

――加藤
「日本にはアナログな課題が多く、特に高齢者に関する課題は深刻です。それらを解決するためにはAIやIoTの活用が不可欠です。

例えば、今の農業では、高齢者が田畑を一生懸命に世話して、野菜を育てたのに、朝起きたら猿に全て荒らされていた、ということが起きたりするわけです。そうすると、高齢者としては精神的にも辛い思いをして、農業を続ける意欲を失う可能性もありえます。作業を手伝ってくれる人や、そうした事故を防いでくれる何かがあれば、様々な負担が軽くなり、農業を続けられるかもしれない。でも、地方には人が少ない

このギャップにテクノロジーを活用していくことが、高齢化社会では重要だという。

――加藤
「例えば、AIに猿の画像を学習させ、畑に猿が来たら警報を鳴らす、というようなこともできます。従来の技術である感熱や動体検知を使うと、人間もその警報に引っかかってしまいますが、AIを活用すれば猿か人を見分けることは手軽にできます」

AIを導入しようとするビジネスの現場でも、精度の高いモデルができたものの、現場のニーズや作業フローを汲み取れず、実際には使われず仕舞いになるケースもある。高齢者にAIやIoTを使いこなしてもらうには、何を意識すべきなのだろうか。加藤氏は、次のように語る。

――加藤
「高齢者に、ある新しい農業機器を作ったから、これを操作して作業してみてよ、と言っても使いこなすのは難しい。でも彼らは農作業の現場で、草刈機が壊れたら自分の手で直すことができます

つまり、慣れているか慣れていないかの差であって、高齢者が新しいテクノロジーを理解できないわけではない。これはあくまで一例で、高齢者に限った話ではありませんが、今までの経験と新しいテクノロジーとの接点を工夫すれば、高齢化の進む社会でもAIを十分に技術を活用していくことが可能だと考えています。フィジカルな世界とどう接続するのか、という観点が大事だと思います」

本質的な課題を見つけるための“外の目”

地方が抱えている課題は、高齢者に限った話ではない。加藤氏は、地方の情報リテラシーについても触れた。

――加藤
「地方が抱える大きな課題として、首都圏との情報格差も挙げられます。何か課題が見つかっても、それを解決するテクノロジーに気づけず、どうするの?と、止まってしまう

理由としては、新しいテクノロジーに触れる機会が少ないことが考えられます。それを飛び越えられるのが超高速情報通信技術です。物理的な距離を超越することで、あたかも現場で体感できているような、リアリティを得ることができます。地方にとって5Gのような高速通信インフラ整備は重要ではないでしょうか」

課題を解決することも大事だが、前提となる課題を発見することも非常に大切だと、加藤氏は語る。

――加藤
「これは地方に限らず民間企業などにも同じことが言えますが、AI技術を使うにも、課題そのものが見つからないケースもあると思います。その領域の専門家が自力でいくら頑張っても本質的な課題が見つからないのに、外の目で見ることで初めて課題に気付く、というのはひとつの課題発見のパターンです。

だから県立大学にとっては、自治体や企業などと組んで地域の課題を発見するということがひとつのミッションだと思っています。ネクストステップとして、産業界で課題を解決していく、という流れがスムーズなのではないでしょうか」

地方を救う、“課題と技術をつなぐ人材”

では、技術が地方に浸透し、活性化するためには何が必要なのか。

――加藤
「まず言えるのは、“人”が必要です。これまでの話とある意味矛盾しそうですが、ここでいう人とは、“課題と技術をつなぐことのできる人”です。

また、地域的な連携だけでなく、異文化との連携も重要です。IoTと農業に代表されるような、フィジカルとバーチャルの連携においてバリエーションを増やしていき、それまでITには触れてこなかった人たちに一歩踏み出してもらうのです。そうすると、テクノロジーを使った世界も悪くないな、となるかもしれないですし、多くの人を巻き込むことができます。

近年、長崎県には富士フイルムソフトウエアや京セラコミュニケーションシステム、デンソーウェーブといった企業が研究開発拠点を開設しており、本学含め、県内の教育機関や地元企業と様々な取り組みが始まっています。テクノロジー領域でも新しい技術を積極的に取り込み、全長崎県民を巻き込んでいくことが、活性化につながるのではないでしょうか」

長崎市内には、AI・IoT分野を中心に、地域課題に着目した企業の研究開発拠点開設が相次いでおり、優秀な即戦力人材の採用ニーズも高まっている。九州・長崎でキャリアを活かして働きたいと考えている人は、一度連絡してみてはいかがだろうか。

サイバーとNHK、ディープラーニングを親子で学ぶワークショップを開催

サイバーエージェントの子会社である小学生向けプログラミング教育事業の株式会社CA Tech Kidsは、NHKエンタープライズと共同で、小学生とその保護者を対象とした親子向けワークショップ「親子で学ぶディープラーニング」を開催する。

日程は3月14日(土)、15日(日)の2日間で、料金は無料。

ディープラーニングを親子で学ぶワークショップ

ワークショップでは、ゲームやロボットを用いて、親子でディープラーニングについて学ぶ。

具体的には、カードを用いたゲームで画像認識の基本的な仕組みを学ぶほか、山梨大学・株式会社エクスビジョンが本イベントの為に独自制作したディープラーニングロボットに自身の顔を認識させ、主人にだけついてくる「ペットロボット」の開発を行い、その正確性をチームごとに競い合う。

ディープラーニングを、ゲームやレクリエーションを通じて体感できる内容になっているという。

CA Tech Kidsは、より多くの子どもたちの可能性を広げるべく、今後も子どもたちが社会とつながる本格的な技術や知識を学ぶ機会を提供し、日本の将来を担う次世代人材育成に引き続き尽力していく、としている。

開催概要

内容 ディープラーニングを用いた顔認識技術について学ぶワークショップ
日時 ①2020年3月14日(土)10:00-16:00 (Tech Kids School 生徒限定)
②2020年3月15日(日)10:00-16:00
対象 小学校4年生~6年生の子供と保護者・家族等
各日程4組(1組につき4名まで参加可能)
※親子向けイベントのため、子供一人での参加は不可
料金 無料
場所 Abema Towers(東京都渋谷区宇田川町40-1・サイバーエージェント本社)
主催 Tech Kids School
制作協力 株式会社NHKエンタープライズ
協力 山梨大学、株式会社エクスビジョン
詳細 https://techkidsschool.jp/event/deeplearning

Source:CA Tech KidsがNHKエンタープライズと共同で、人工知能(AI)ワークショップ「親子で学ぶディープラーニング」を開催

おいしい鯖を養殖するためにAIやIoTが使われている

※写真はイメージです

鯖はおいしい。もちろん好みにもよるだろうが、鯖はおいしい。

KDDI株式会社は2月14日、「鯖、復活」養殖効率化プロジェクトに関して2019年の成果と新たに開始した取り組みについて発表した。このプロジェクトは2017年からKDDIと小浜市などが産学官連携して進めている。

>>KDDI プレスリリース
>>KDDI 地方創生サイト 事例紹介: 福井県小浜市2

全国ブランドサバ知名度ランキング6位を獲得

2019年のぐるなびによる調査では、養殖サバ独特の生臭さがなく刺身でもおいしいブランドサバとして、このプロジェクトで作られている「小浜よっぱらいサバ」が6位に入選した。養殖鯖では2位とのこと。ちなみに命名の由来は、鯖街道でつながる京都の酒粕をえさに混ぜているからだそうだ。

当初は市直営の養殖事業だったが2019年1月から地元住民らが発起人となって設立した田烏水産株式会社に事業を移譲。その後、民間が主体かつ地元本位の事業として、ますますの拡大が見込まれている。

IoTセンサーで取得したデータをAIで分析

2017年に開始したこのプロジェクトは、出荷尾数が当初は3000尾程度だった。2018年にはなんと1万尾を超え開始時から約3倍に。いけすの数を増やし、販路を拡大したことが理由にあるという。

IoTセンサーやAIを活用したのは2019年からのこと。

センサーで取得したいけすの水温、酸素濃度、塩分などのデータをAIを使って分析し養殖におけるノウハウのマニュアル化に取り組んだ。さらに、魚が食べたいときに食べたいだけ自発給餌するシステムや、水中カメラによる魚体サイズの推定にも取り組んでいる。

画像は「KDDI 地方創生サイト 事例紹介: 福井県小浜市2」から

画像は「KDDI 地方創生サイト 事例紹介: 福井県小浜市2」から

IoTやAIは、おいしい鯖を生産するための起点になっているそうだ。

ソフトバンクはチョウザメの養殖に挑む

通信キャリアを営む同業のソフトバンクは、チョウザメの養殖方法を確立するために国立大学法人北海道大学大学院水産科学研究院と組んで研究・開発を進めている。

チョウザメの養殖は非常に難しく、全滅するリスクもあるそうだ。飼育期間も6年以上かかることなど、コスト面も難しいとされる要因のひとつ。

そこで、IoT機器やAIを駆使し、低コストかつ効率的な養殖方法の確立を目指すそうだ。

さらには、水産分野における各種テクノロジーの可能性や実現性の検証もしていくという。詳しくは下記リンク先の記事でご覧いただきたい。

農家の収益2倍へ、自動収穫ロボ活用:人工知能ニュースまとめ7選

日々、目まぐるしく進化、発展を遂げるAI(人工知能)業界。さまざまな企業が新しいサービスを開始したり、実験に取り組んだりしている。

そこで本稿ではLedge.aiで取り上げた、これだけは知っておくべきAIに関する最新ニュースをお届けする。AIの活用事例はもちろん、新たな実証実験にまつわる話など、本稿を読んでおけばAIの動向が見えてくるはずだ。

マイクロソフトが非営利団体などを支援する医療向けAI事業を発表

マイクロソフトは米国時間1月29日に、世界中の人々と地域社会の健康に貢献する「AI for Health」を発表した。AI for HealthはAIによって研究者や研究組織を支援し、世界中の人々や地域社会の健康を向上することが目的のプログラムだ。

AI for Healthは、ヘルスケア分野におけるマイクロソフトの広範な活動を補完する慈善活動のひとつ。AI for Healthを通して、特定の非営利団体や大学などと、マイクロソフトの主要なデータサイエンティストとのコラボレーション、AIツールとクラウドコンピューティングへのアクセス、および助成金などのサポートを提供するという。

進研ゼミでもAIで学習、中学講座にLINEの「Clova」採用


株式会社ベネッセコーポレーションは2月10日に、同社の通信講座「進研ゼミ中学講座」の2020年4月号から個別対応を強化すると発表した。具体的には、専用タブレットで学習するハイブリッドスタイルコースをリニューアル。専用タブレットにLINE株式会社のAIアシスタント「Clova」を搭載し、「AI学習アシスタント」として勉強中の疑問解消や学習法アドバイスをしていく。

「学校の部活が忙しすぎる」と話しかけると、目標学習数の調整を提案し、継続的な勉強ができるようにアドバイスする。すべてのレッスンを消化するのではなく、一人ひとりの勉強意欲に沿った学習サポートを提案していくそうだ。

「がん」を瞬時に判定するAI登場、正答率は病理専門医に迫るほど

広島大学の有廣光司教授、加藤慶ならびにメドメイン株式会社の飯塚統、Fahdi Kanavati、Michael Rambeau、常木雅之(責任著者)による「胃・大腸における上皮性腫瘍の病理組織学的分類を可能にするAIモデルの開発」に関する論文がNature Publishing Group刊行の「Scientific Reports」より出版されたことが2月3日に明らかになった。

開発には、スーパーコンピュータシステムが用いられ、試験データによる検証の結果、機械学習の精度の評価に用いられる指標「AUC」がいずれも0.96以上(1に近いほど判別能が高い)という、きわめて高い精度(病理専門医の正答率に肉薄した精度)を得るに至ったとのこと。

農業者の平均年齢67歳、野菜を自動収穫するロボットで収益2倍に

AGRIST株式会社(アグリスト)は1月31日にAIを活用した農産物の自動収穫ロボットを開発。今年1月からビニールハウスで運用を開始していると発表した。これは、収穫量の向上を実現し、農家が抱える課題を解決するロボットだそうだ。

アグリストの公式サイトによれば、同社のロボットは「感覚的に農家さんが操作できるユーザーインターフェイスを実現します」とうたっている。ボタンひとつで動き出し、バッテリーの充電や再生停止も1クリックで可能。シンプルな構造にしたからこそ、農家に対して低価格でサービスを提供できる。

全滅リスクがあるチョウザメ養殖、ソフトバンクらがAIなどで研究

国立大学法人北海道大学大学院水産科学研究院とソフトバンク株式会社は2月13日、今年2月からIoTやAI(人工知能)を用いたチョウザメのスマート養殖共同研究プロジェクトの開始を発表した。このプロジェクトでは低コストかつ効率的な養殖方法の確立を目指している。

主な研究は、機械学習(Machine Learning)を用いるチョウザメの個体識別や行動分析だ。異常行動の早期発見、病気のまん延防止、水流停止や餌の供給過多のような養殖環境の異常を検知し、全滅を防ぐ方法の研究をする。

訪日外国人には自動販売機が難しい?

JR東日本ウォータービジネスは2月13日に、「インバウンド向け多機能自販機」の実証実験を3月19日から開始することを発表した。自動販売機にAIを搭載し、多言語での案内・説明に対応する。

自動販売機の使い方から、商品の詳細情報、決済方法など、日本語以外に英語・中国語・韓国語で案内できる。また、顔認識システムを備えたカメラの搭載によって、利用者の性別や年齢層など属性の識別が可能だ。識別した属性、外の気温、時間帯それぞれに応じたおすすめの商品を紹介するのも特徴のひとつ。

子どもの「裸の自画撮り被害」をAIで防止する格安スマホが発売

株式会社ドリーム・トレイン・インターネットが運営するトーンモバイルは2月14日、AIによって裸などの自画撮り被害を防ぐカメラを搭載したスマートフォン「TONE e20」の発売を発表した。発売日は2月20日で価格は1万9800円(税抜)。

自画撮り被害の抑止を目的として、裸やそれに近い服装など撮影時にAIが不適切な画像と判定した場合には、シャッターを切る、もしくは動画を撮影していても、画像および動画が本体や各種クラウドサービスには保存されなくなる。

子どもの「裸の自画撮り被害」をAIで防止する格安スマホが発売

※写真はイメージです

「自画撮り被害」なる事件が年々増加しているそうだ。

東京都都民安全推進本部(外部サイト)によれば、自画撮り被害とは「だまされたり、脅されたりして18歳未満の子供が自分の裸体等を撮影させられたうえ、メール等で送らされる被害」を指す。

同サイトでは、「SNSで親しくなった人を信じて裸の画像を送ったら、ネット上で公開されてしまった」「『画像をアップするぞ』とおどされ、呼び出されてひどい目にあった」などという被害事例があると書かれている。

画像は東京都都民安全推進本部より

機械学習によって不適切な画像を規制・検出

そんななか、株式会社ドリーム・トレイン・インターネットが運営するトーンモバイルは2月14日、AIによって裸などの自画撮り被害を防ぐカメラを搭載したスマートフォン「TONE e20」の発売を発表した。発売日は2月20日で価格は1万9800円(税抜)。

画像はプレスリリースより

TONE e20は、同社の既存端末と比べAI機能が大幅に向上した。なかでも、世界初とうたうAIフィルターを搭載した「TONEカメラ」が特徴的。

自画撮り被害の抑止を目的として、裸やそれに近い服装など撮影時にAIが不適切な画像と判定した場合には、シャッターを切る、もしくは動画を撮影していても、画像および動画が本体や各種クラウドサービスには保存されなくなる。

カメラだけではなく「動画撮影」でも判定されるのがポイントで、不適切な画像や映像を検出すると「撮影不可のアラート」が1~2秒間表示される(カメラモードでも同様のアラートが発生)。

画像はプレスリリースより

また、不適切と判定された撮影があった場合には保護者に通知が送られる。通知内容には「日時」「モザイクされたサムネイル」「位置情報」が含まれる。なお、TONEカメラはオンデバイスAI技術を採用しているので、AIによる判断などは端末本体で処理されプライバシーは守られる。

画像はプレスリリースより

発売するトーンモバイルは、「子どもの見守り機能」が充実していることに定評のあるブランド。スマホの使い過ぎを防いだり、居場所をいつでも確認できたりする。一部機種では、GPSを利用して場所ごとにアプリを使えなくする機能もある。これは、学校内でのスマホ使用を制限するときに活用できるという。

画像はプレスリリースより

カメラがAIによって被写体を検出し、“いい感じ”の写真に仕上げてくれるスマホは数多いが、子ども向けのスマートフォンとしては比較的安価で防犯面を充実させた機種に人気が集まるのかもしれない。まぁ中高生からは「iPhoneじゃなきゃ嫌!」のような声は少なくないようだが……。

>>トーンモバイル

訪日外国人には自動販売機が難しい?

※写真はイメージです

まったく意識したことはなかったが、訪日外国人にとって日本の自動販売機は難解なのかもしれない。ひとえに缶コーヒーといっても、無糖、微糖、カフェオレ……いっぱいあるし(Google検索で「缶コーヒー 多すぎ」って出たのはさすがに笑った)。

株式会社JR東日本ウォータービジネスが訪日外国人を対象にした自動販売機に関する調査では、およそ3割の人が「操作が難しいと感じたことがある」と回答。また、中国からの旅行者は「決済方法が難しいと感じた」、韓・米からの旅行者は「飲料の種類が分かりにくいと感じた」とコメントしたそうだ。

この結果を受け、JR東日本ウォータービジネスは2月13日に、「インバウンド向け多機能自販機」の実証実験を3月19日から開始することを発表した。自動販売機にAIを搭載し、多言語での案内・説明に対応する。

AIが搭載されている自販機のイメージ

商品説明だけでなく天気予報や乗換案内も

インバウンド向け多機能自販機には、15インチのタッチパネルが搭載されている。

タッチパネルには株式会社ティファナ・ドットコムの「AIさくらさん」のバーチャルアニメーションが表示され、タッチパネル操作や口頭での質問に対してAIを活用したさまざまな案内をする。

自動販売機の使い方から、商品の詳細情報、決済方法など、日本語以外に英語・中国語・韓国語で案内できる。また、顔認識システムを備えたカメラの搭載によって、利用者の性別や年齢層など属性の識別が可能だ。識別した属性、外の気温、時間帯それぞれに応じたおすすめの商品を紹介するのも特徴のひとつ。

このインバウンド向け多機能自販機は、高輪ゲートウェイ駅前特設会場「Takanawa Gateway Fest(高輪ゲートウェイフェスト)」に設置されるそうだ。その後、3月中を目途に、東京駅、新宿駅、上野駅、秋葉原駅にも設置予定という。

高輪ゲートウェイ駅での設置場所

都市部の主要駅に設置されるだけあって、自動販売機には乗換や駅構内の案内も表示可能とのこと。大迷宮と名高い新宿駅に迷い込んでしまった訪日外国人の救世主になるのだろうか。

自動販売機に搭載される「AIさくらさん」は何者なのか

今回の自動販売機にも搭載されるAIさくらさんは、東京都内の駅を利用した人は見かけたことがあるかもしれない。東京駅などの一部駅では、AIさくらさんが稼働していて、駅構内の案内などをしてくれる。

そもそも、AIさくらさんは案内をすることはもちろんのこと、社内のヘルプデスク対応や社外問い合わせ対応など、これまで人が対応していた業務を肩代わりする存在だ。

過去にLedge.ai編集部が、AIさくらさんを運営するティファナ・ドットコムに2019年当時に実施された東京駅への実証実験時の取材では

「背景にあるのは受付や案内業務における人手不足です。外国人観光客の案内業務に駅員の工数がかなりの割合で割かれており、2020年のオリンピックに向けてこれから更に増えると予測されています」
「キャラクターデザインの際、親しみやすさにはかなり気を配りました。
AIが受け入れられるには、ユーザーに長期的に使ってもらわないといけません。使い続けることでAIさくらさんは適切な答えを学習し、ユーザーも使い方に慣れていきます。

導入が短期間だと準備に時間がかかるだけで、効果を十分に得られないまま終わってしまう。長期を見据えた導入で、AIだけでなくユーザー側も学び、慣れる必要があります」

と語られている。

個別の問い合わせに対し、それぞれが対応できるのがベストではあるものの、都市部の駅などでは人員問題によって現実的ではない。

今回のインバウンド向け多機能自販機のニュースを知った当初は「自動販売機をそこまで多機能にする必要性あるのか?」と思ったが、自販機がさまざまな案内に追われる駅員さんを肩代わりする存在に昇華したと捉えればいいプロダクトだと感じる。

全滅リスクがあるチョウザメ養殖、ソフトバンクらがAIなどで研究

Photo by Hans Braxmeier on Pixabay

高級食材のひとつ「キャビア」は、チョウザメの卵だ。しかし、そのチョウザメの養殖方法は確立されておらず、環境の変化によっては全滅する可能性があるという。

国立大学法人北海道大学大学院水産科学研究院とソフトバンク株式会社は2月13日、今年2月からIoTやAI(人工知能)を用いたチョウザメのスマート養殖共同研究プロジェクトの開始を発表した。このプロジェクトでは低コストかつ効率的な養殖方法の確立を目指している。

高い飼育コストと監視体制の構築などが課題

チョウザメの養殖は、卵を産むまでに6年以上の飼育が必要だ。さらに、雌雄の区別が可能になるまで2~3年の期間を要するため、非常に高い飼育コストがかかる。くわえて、養殖環境が変化するだけで全滅するといったリスクもある。このため、チョウザメの養殖には飼育員による長期間の監視を求められていた。

北海道大学とソフトバンクが共同研究で、IoTやAIなどを用いて行動を解析することで、チョウザメの養殖における各種リスクお軽減や課題の解決をねらう。

主な研究は、機械学習(Machine Learning)を用いるチョウザメの個体識別や行動分析だ。異常行動の早期発見、病気のまん延防止、水流停止や餌の供給過多のような養殖環境の異常を検知し、全滅を防ぐ方法の研究をする。

また、水中や水上の画像データや環境情報データなどを、IoT機器によってリアルタイムに収集および分析。さらに、水流のシミュレーションとCGで再現したチョウザメの筋骨格モデルによって、さまざまな仮想環境による個体の泳法の3DCGによるシミュレーションデータを使用する。なお、魚の骨格、筋肉などから生成するチョウザメの3DCGモデルは、従来のアニメーションのためのモデルとは異なり、魚生物学シミュレーションを可能にするリアルな筋骨格3DCGを再現する予定だ。

共同研究の流れ。画像はプレスリリースより

本共同研究によって低価格での実現方法を確立させるだけでなく、IoTやAIを用いた養殖方法の確立を目指すことで、水産分野における各種テクノロジーの可能性、そして実現性を検証していく。

実施期間は2020年2月1日から2023年1月31日までの3年間となっている。

>>ソフトバンク プレスリリース

増加する魚介類消費量を補うには養殖業の事業安定化が必要

水産資源における問題はチョウザメだけの話ではない。いま、世界では魚介類の消費量が増えている。天然資源の漁獲が増えれば、世界中の水産資源が枯渇し、生態系に大きな影響を与えるとされる。

以前、水産ベンチャーのウミトロンは宇宙航空研究開発機構(JAXA)と共同で、気候変動観測衛星「しきさい」の観測データの水産養殖の現場への活用を検証していると発表された。人工衛星データとAIやIoTと組み合わせ、赤潮など自然環境に左右されやすい水産養殖業の経営安定化を目指すという。

人工衛星から取得される広域データが全地球的に活用できるようになれば、赤潮対策のための体制構築が進んでいない地域にとっても、リスク低減に向けて有用だとされる。

農業者の平均年齢67歳、野菜を自動収穫するロボットで収益2倍に

高齢化と担い手の不足という危機を迎える農業。日本の農業者の平均年齢は67歳。

農作業の50%以上の時間は収穫と出荷作業に費やされている。そのなかでも、収穫作業を省力化・効率化すれば農業所得を向上させられるのではないか。

AGRIST株式会社(アグリスト)は1月31日にAIを活用した農産物の自動収穫ロボットを開発。今年1月からビニールハウスで運用を開始していると発表した。これは、収穫量の向上を実現し、農家が抱える課題を解決するロボットだそうだ。

農家の声から生まれた収穫ロボット

地元農家と共同開発したロボット

宮崎県児湯郡新富町の若手農家は、スマート農業の実践と収益拡大を目指し、月1回の勉強会「儲かる農業研究会」を開催している。その会員でもあり、JA児湯の理事を務めるピーマン農家・福山望氏とアグリストは、ピーマンの自動収穫ロボットを共同で開発し、2020年1月から福山氏の農場でロボットの運用を開始した。

農家と共同開発をするにあたり、従来の「地面を自走する方式の収穫ロボット」の課題について意見交換と議論を重ねた。

「地面を走って収穫を行う場合、圃場が平らでないためにロボットが転倒してしまったり、圃場にある機械や装置が邪魔になり移動ができなかったりする可能性がある。更に、従来のロボットアーム型の収穫機では、価格も高くなり、保守管理も大変になるのではないか。」

こうした農家からの声から生まれたのが今回発表された「吊り下げ式ロボット」だ。

宮崎県内の農業関係者30名が収穫ロボットを視察

アグリストの公式サイト(外部サイト)によれば、同社のロボットは「感覚的に農家さんが操作できるユーザーインターフェイスを実現します」とうたっている。ボタンひとつで動き出し、バッテリーの充電や再生停止も1クリックで可能。シンプルな構造にしたからこそ、農家に対して低価格でサービスを提供できる。

AIと画像認識技術については、宮崎県新富町の農家の協力をもとに膨大な野菜関連の写真を収集する。果実の認識精度を高めながら、ロボットの効率性をアップデートするそうだ。

将来的には、1反あたりの収穫量の20%以上改善を目指すという。また、ロボットで収集するデータを解析することで、病気の早期発見を実現していく。アグリストは、農業にイノベーションを起こし、生産者の収益を2倍以上に改善させ、農業所得の向上が目標だ。

>>AGRIST株式会社
>>プレスリリース(PR TIMES)

AIによって高糖度トマトを安定生産

アグリストは農作業における「収穫」を手助けするAI搭載ロボットを開発したが、農業におけるAIの活用は多岐にわたる。農業にAIを活用したことで、“より良い農作物”を作れるようになった事例がある。

株式会社Happy Qualityは2月5日、静岡大学との共同研究である、AI(人工知能)の判断に基づく灌水(かんすい)制御によって糖度トマトを高い可販果率での生産成功を発表した。

研究開発と実証実験の結果、AIの判断に基づいた灌水制御では平均糖度9.46の高糖度トマトを、バラつきを抑えて容易に栽培できることを示した。さらに、急な天候変化に追従した適切な灌水制御によって、従来の日射比例方式による灌水制御に比べ果実の裂果を大幅に減らし、高糖度トマトを高い可販果率(95%)で生産できることも確認している。

Happy Qualityが目指すのは、AIなどのテクノロジーを活用することにより高品質・高機能な農作物を誰でも安定的に栽培できる栽培技術の確立だ。同社の実験結果などは下記記事から確認してほしい。

【LINE×AI】LINEのAIサービスを徹底解説

2019年12月23日にヤフーと経営統合に関する最終合意を締結し、ヤフーと共に「AIテックカンパニーを目指す」と宣言しているLINE。LINEのAIサービスというとClovaなどが思い浮かびますが、実際はOCR、音声認識や音声合成など多様なサービスを提供しています。

この記事ではLINEがAIで取り組んでいること、LINEが目指す姿について解説します。

LINEのAIに関するこれまでの取り組み

LINEはこれまで主にBtoC向けにさまざまなサービスを提供してきました。

AIアシスタント「Clova」


出典:https://clova.line.me/clova-friends-series/clova-friends/

LINEは2017年10月より、AIアシスタント「Clova」の提供を開始しました。

Clovaは韓国のNO.1ポータルサイトでLINEの親会社である「NAVER」と共同開発され、音声認識自然言語処理の技術が使われています。話しかけることでコミュニケーションアプリ「LINE」でのメッセージの送受信や、「LINE MUSIC」で音楽再生などが可能です。

Clovaを搭載した製品には、スマートスピーカーであるClova FriendsやClova WAVEのほか、ディスプレイ付きでビデオ通話や動画視聴が可能なClova Deskや、走行中も声で操作できるカーナビアプリLINEカーナビなどがあります。

多種多様なチャットボット

LINEは、AIを搭載したさまざまなチャットボットを研究・開発しています。LINE上でのユーザーの問い合わせや予約、チケット検索などに自動で対応するチャットボットなどがあります。

ここでは、LINEのAIを活用したチャットボットの例として「LINEかんたんヘルプ」をご紹介します。

■ LINEかんたんヘルプ


Ledge.ai 編集部作成

お助けLINE公式アカウント「LINEかんたんヘルプ」では、LINEの機能で困ったとき簡単に解決方法を確認することができます。「アカウントの引継ぎ方法」など代表的な質問は、下部のタップメニューをタップすることで回答が表示されます。その他の質問は、LINEのチャットのようにキーボードで送信することで回答が表示されます。また、次の動作につながる質問の選択肢も表示され、選択肢をタップするだけで簡単に解決方法にたどり着くことができます。


また、LINEの提供するAIチャットボットとは異なりますが、LINEは、LINE公式アカウント、Messaging APIを他社に提供することで、多くの企業のAIチャットボットの提供を支えています。他社AIを利用した、LINEのチャットボットを紹介します。

■ 女子高生AI りんな


出典:https://www.rinna.jp/platform

マイクロソフトが開発し、LINE公式アカウントとして公開している対話型AI。タスク遂行ではなく会話を目的としており、話し相手になってくれます。犬の写真を送ると犬種を教えてくれたり、しりとりに付き合ってくれたりします。

■ ヤマト運輸


ヤマト運輸のLINE公式アカウントでは、「配達状況の確認」「再配達依頼」などが可能です。メニューの「再配達依頼」を押すと、送り状番号、お届け希望日、時間帯などが聞かれ、LINE内で荷物の再配達依頼を完了することができます。これまでの、電話やウェブサイトでの再配達依頼よりも、簡単に行うことができます。

ヤマト運輸のアカウントの登場は、消費者の負担だけでなく、日々大量の荷物の配送に追われている配達現場の社員にかかる負担を減らすことにも繋がっています。

その他これまでLINEが取り組んできたサービス

■ LINEショッピング

出典:https://linecorp.com/ja/pr/news/ja/2018/2241

「LINEショッピング」内の「ショッピングレンズ」は、写真や画像といった”ビジュアル”だけで理想の商品を探す事ができる機能。

その場で商品を撮影したりスマホに保存していた画像をアップロードすると、画像認識技術により、LINEショッピングで展開している6000万点以上のアイテムの中から近しい商品を検索することが可能です。

■ LINE CONOMI


「LINE CONOMI」は口コミと写真を簡単に投稿、検索ができるグルメレビューできるアプリです。

“店舗選びの煩雑さ”や“食べたいものを見つける難しさ”をAI技術によって解決し、本当に自分が行きたいお店・食べたいものと出会うことができます。

LINE独自のAIを使った文字認識技術(OCR)により、テキストを入力しなくても“レシートを撮影するだけ”で、店名やメニューを自動入力できるほか、位置情報の活用により料理写真をアップするだけで店舗情報が候補一覧として自動表示されるなど、ユーザーが簡単にグルメ記録を投稿することができる機能が充実しています。

「LINE BRAIN」で新たにBtoB事業に参入


出典:https://www.linebrain.ai/#strength

LINEは2019年、同社がこれまで培ってきたAI技術を外部企業などに展開するサービス「LINE BRAIN」を開始。2019年6月のLINE CONFERENCEで大々的に発表され、話題を呼びました。

LINEはこれまで社内でAI技術を活用してきており、社内で培った技術や知見を取り入れ、AI技術をBtoBで提供していきます。

LINE BRAINの強みは、日本語を含むアジア系言語に対応し、各国の文化に合わせた行動データ分析やカスタマイズが可能なこと。米国や中国との競合との差別化を図ります。

LINE BRAINが提供するサービス

LINE BRAINが提供するサービスは以下の7つ。

  • CHATBOT(チャットボット)
  • TEXT ANALYTICS(言語解析)
  • SPEECH TO TEXT(音声認識)
  • TEXT TO SPEECH(音声合成)
  • OCR(文字認識)
  • VISION(画像認識)
  • VIDEO ANALYTICS(画像・動画解析)

LINEが発表しているプロダクトロードマップによると、現在開発中のサービスは2020年にはSaaSとして一般に開放する予定です。


また、2020年1月22日より、「LINE BRAIN CHATBOT」、「LINE BRAIN OCR」のSaaSとしての提供を開始しました。

■ 顧客問い合わせや社内問い合わせ対応に活躍する「CHATBOT」

LINE BRAINのチャットボットは、最新の機械学習モデルを活用したサービスです。

自然言語処理機械学習・テキストマイニングなどのAI技術を適用し、自然な応答を実現。英語、中国語、韓国語、タイ語、インドネシア語に対応しています。

  • これまでのLINEサービス内での活用事例
    LINEアプリ(LINE公式アカウントでの問い合わせ対応、雑談など)
  • 今後の活用事例
    チャットボット上での予約や商品購入といったCRM連携、社内FAQ対応、チャットボット運営の省力・内製化

無料で使える「Trialプラン」や、⽉50,000 円の基本利⽤料で利⽤できる「Commercialプラン」など⽤途に応じて選べるプランがあります。

■ 煩雑な入力作業を助ける「OCR」

LINEの画像認識を活用したOCR。紙面等に記載された文字・文章をテキストデータへ変換します。文書の検出と認識に関する国際会議(ICDAR:2019/3/29時点)では4分野で認識精度世界No.1を獲得しました。湾曲して書かれた文字や傾いた文字、正面から撮影できなかった文字も認識可能です。OCRの機能はLINEのアプリ内でも利用することができます。

  • これまでのLINEサービス内での活用事例
    LINEアプリ(LINEのトーク画面上で画像からテキストを抜き出せる)、LINE CONOMI
  • 今後の活用事例
    伝票登録OCR、領収書OCR、身分証明書OCR、モバイルアプリ自動入力OCR、eKYC

斜めになった⽂字、歪んだ⽂字でも⾼い認識精度を誇る⽂字認識技術を無料で利用できる「Free プラン」をはじめ、読取枚数に応じたプランがあります。

LINE AiCall

LINE BRAINを象徴する開発プロジェクトとして「LINE CONFERENCE 2019(外部リンク)」において紹介されたのがProject「DUET」というAI自動応答システムです。

LINEの音声認識技術Speech to Text、チャットボット、Text to Speechの技術を組み合わせています。サービス名を「LINE AiCall(外部リンク)」とし、電話での新規予約受付とFAQ対応を、すべてAIが対応し、飲食店の電話応対の負担削減を目指します。2019年11月より「俺のGrill&Bakery 大手町」での実証実験を開始しています。現段階では実験は終了し、今後の展開を検討中とのことです。


出典:LINEプレスリリース

Googleが同様のサービス「Google Duplex」をすでに展開していますが、「LINE AiCall」はなめらかな日本語対応が強みです。

また、「LINE CONFERENCE 2019(外部リンク)」においてLINE CSMOの舛田 淳氏は、音声合成の難しさ、一般回線で音声を正しく認識する性能、曖昧な会話でも理解する対応力がポイントだと語りました。

LINE AiCallは、AIによる自動化で電話応対の時間が削減できることに加え、24時間の対応が可能になることで、営業時間外の機会損失を減らすことができます。

「何もかもに対応する万能なAI」ではなく、まずは「特定の課題解決に特化したAI」を目指すLINEにとって、LINE AiCallはその特徴の現れた代表例と言えるでしょう。

その他LINEの最新の取り組みについて

LINE BRAINのほかにもLINEが取り組んでいるサービスをご紹介します。

検索サービス事業に再参入。「LINE Search」

LINE Searchは、コミュニケーションサーチとコンテンツサーチを足し合わせた統合型の検索サービスです。2019年6月に発表しました。LINEの前身であるNHN Japanは、韓国の検索エンジン「NAVER」を日本で展開していましたが2013年に撤退した経験があるため、今回検索サービス事業へ再参入という形になります。

LINE Searchは「人」と「ロケーション」の2点の検索精度強化に注力しています。

  • 「人」軸
    「インフルエンサー検索」をリリースし、知りたい事柄に詳しい人をTwitterやInstagramで探すことを可能にしました。さまざまな分野の専門家を検索し、見つけて相談できる「LINE Ask ME」も2020年に提供予定です。
  • 「ロケーション」軸
    すでにリリースされているグルメレビューアプリ「LINE CONOMI」などのサービス展開を進める予定です。

LINEは今後、LINEの持つAI技術とLINE Searchをかけ合わせ、あらゆる情報をLINE上で検索できるようにするとしています。

トヨタと提携「LINEカーナビ」

LINEは2019年9月から、「LINEカーナビ」サービスを開始しました。トヨタと協業し、トヨタのカーナビエンジンとClovaのUXが融合したスマホアプリです。注目すべきは、LINEのAIアシスタント「Clova」が搭載されており、自動車の走行中も“声”でカーナビを操作できる点です。


出典:「LINE カーナビ」公式サイト

2019年11月15日に開催された「MOBILITY TRANSFORMATION CONFERENCE 2019(外部リンク)」で、Clova企画室室長の中村浩樹氏は次のように言いました。

――中村氏
「古くから、声によるナビ操作は普及を目指されていたが、音声認識の精度向上などによってやっと実現できるタイミングが来た」

音声によるカーナビ操作は、今後さらに需要が高まる見込みです。2019年12月1日から道路交通法が改正され、運転中にスマートフォンを持って通話をしたり、メールなどを確認したりする「ながら運転」が厳罰化。ハンズフリーで操作できるカーナビは、ながら運転厳罰化の追い風を受けそうです。

Clovaを搭載したLINEカーナビは、ナビとしてだけでなく、LINEメッセージのやり取りもできるなど、さまざまな活用も可能なため、アドバンテージは多いでしょう。

「LINE×AI」のこれから

LINEが今後AI事業で目指す「LINE×AI」のこれからについて解説します。

サービスの親和性を生かして「トータルでの体験」を目指す

これまで紹介してきたように、LINEは多くのサービスを提供しています。これらの強みは「それぞれのサービスの親和性が高い」ことにあります。

この高い親和性を生かして「LINEはトータルでの体験を目指す」と、「MOBILITY TRANSFORMATION CONFERENCE 2019(外部リンク)」で中村 浩樹氏は語りました。

カギとなるのは、「LINEカーナビ」「LINE Search」「LINE AiCall(LINE BRAIN Project『DUET』)」「LINE Pay」です。


Ledge.ai 編集部撮影

検索サービスの「LINE Search」で気になる飲食店を検索。飲食店の予約管理サービスの「LINE AiCall」で予約し「LINEカーナビ」で道案内。そしてLINE上で決済などが可能なキャッシュレスアプリ「LINE Pay」で支払う。こうした一連の体験をつくることをLINEは目指しています。

また、ヤフー(Zホールディングス)との経営統合も実現すれば、LINEの目指す「トータルでの体験」を後押ししそうです。ヤフーが持つサービスはLINE同様に豊富で、大きなシナジーを持つサービスも数多くあります。

それこそ、カーナビ事業ではヤフーも「Yahoo!カーナビ」を展開中です。また、キャッシュレス事業においても、ヤフーは「PayPay」という最大規模の事業を抱えます。両社のシナジーが生まれれば、今後様々なサービスが一層私たち生活に溶け込むことが予想されます。

GAFAからこぼれたニーズを拾っていく

今の世界の状況を見ると、AI分野ではアメリカではGAFA、中国ではBATHと呼ばれる企業群が圧倒的です。

そこでLINEの描く今後の戦略としてLINE BRAIN室 室長の砂金信一郎氏は「GAFAからこぼれたニーズを拾っていく」と語ります。

――砂金氏
「GAFAなど、外資系ベンダーによるジャパンパッシングがありますよね。海外のカンファレンスで新サービスが発表されても、日本に来るのは2,3年先とか。
しかし、日本企業の課題解決のカギはGAFAによるサービスのローカライズではありません。LINEは、GAFAが投資対効果が合わずに撤退した、たとえばマイナー言語などのニーズに集中します


Ledge.ai 編集部撮影

実際に、海外で新サービスが発表されても、日本語に対応するのは数年先ということが少なくありません。一方日本では海外に比べて、「キャラクターと雑談を楽しみたい」などのニーズが多くあるといいます。これらの「GAFAからこぼれ落ちたニーズ」を、LINEは積極的に汲み取ろうとしています。

「人に優しいAI」を提供する

また、LINEはLINE BRAINの発表時「人に優しいAI」を提供していくとしました。この真意について、砂金氏は「人々の生活に密着し、知らないうちに後ろから手を差し伸べるようなAI」であると語ります。

――砂金氏
「『人に優しいAI』とは、人の仕事を奪うのではなく、本来の業務(たとえば飲食店内での接客や調理といったお客様へのサービスなど)に集中できるような社会を実現するためのAI、という意図でそう呼んでいます。人々の生活に密着し、知らないうちに後ろから手を差し伸べるようなAIです。本当はすごい技術を使っているんだけど、自然に生活に溶け込んでいるような。そんなAIを目指しています」

コミュニケーションとAIで実現するLINEのこれから

これまで解説したように、数多くのサービスを生み出しつづけるLINEですが、LINEが生み出すこれらのすべてのサービスの軸は「コミュニケーション」にあります。

AI技術は、コミュニケーションの活躍の幅を大きく広げます。今後LINEはサービスにさらにAIを組み込み、より便利なサービスとして展開していくことで、より一層私たちの生活にあるコミュニケーションの場面に溶け込んでくることでしょう。ヤフーと共に「AIテックカンパニー」を目指すと宣言したLINEの今後の動向から、目が離せません。

「がん」を瞬時に判定するAI登場、正答率は病理専門医に迫るほど

ついに「がん」の病理診断もAIに任せる時代が到来しそうだ。

広島大学の有廣光司教授、加藤慶ならびにメドメイン株式会社の飯塚統、Fahdi Kanavati、Michael Rambeau、常木雅之(責任著者)による「胃・大腸における上皮性腫瘍の病理組織学的分類を可能にするAIモデルの開発」に関する論文がNature Publishing Group刊行の「Scientific Reports」より出版されたことが2月3日に明らかになった。

【論文タイトル】
(原文)Deep learning models for histopathological classification of gastric and colonic epithelial tumors(和訳:胃・大腸における上皮性腫瘍の病理組織学的分類を可能にするAIモデルの開発)
論文リンク:https://www.nature.com/articles/s41598-020-58467-9
DOI: 10.1038/s41598-020-58467-9
PubMed リンク:https://www.ncbi.nlm.nih.gov/pubmed/32001752

>>メドメイン株式会社

診断の効率化や労働負荷の減少など実用可能なレベルに到達

メドメインでは複数の医療機関との共同研究により、それぞれ4000例を超える胃・大腸の病理組織標本に対して標本単位のデジタルイメージ(whole slide image)を作成した。自社開発のアノテーションツールを用いた病理医による教師データを作成し、これらを深層学習させることによって、病理画像解析のAIモデルの開発に成功した。

開発には、スーパーコンピュータシステムが用いられ、試験データによる検証の結果、機械学習の精度の評価に用いられる指標「AUC」がいずれも0.96以上(1に近いほど判別能が高い)という、きわめて高い精度(病理専門医の正答率に肉薄した精度)を得るに至ったとのこと。

左図が胃、右図が大腸のAIモデルの精度の評価を示す

病理画像のAI解析による判定結果の精度は高く、病理組織標本レベルで判定結果が得られることからも、実際の病理診断の現場において、スクリーニングに使用することで診断の効率化・労働負荷の減少など、実用可能なレベルに到達している点を論文内で述べられている。

不足する病理医、求められる病理診断

「がん」は世界的な統計のなかでも病気死因の上位カテゴリーとされている。その種類のなかでも患者数や発症数から胃・大腸がんは主体を成しているそうだ。そのため、多くの医療機関でこれらのがんの診断をするための内視鏡を用いた微小生検材料の病理診断の検査数は非常に多く、また増加傾向にあるという。

ところが、診断をする「病理医」は国内外で慢性的に不足している。病理医がひとりで診断を担う医療機関も多く、労働負荷が非常に大きくなっている。そして、多くの医療現場では、他院や検査センターに病理診断を依頼している現状がある。

こういった状況から、患者に対してより効率的で迅速な病理診断を実現するワークフローの整備が望まれていた。病理組織学的判定のスクリーニングが可能になるAI開発には世界中の医療従事者から大きな期待が寄せられているそうだ。

メドメインでは、AIによる病理画像解析を医療の現場で円滑に使用できるように、病理画像のAI解析システム「PidPort」の正式なサービス開始を近日中に予定している。

PidPortは、Deep Learning/AIによる独自の画像処理技術によって超高精度で迅速な病理スクリーニングを可能にするほか、遠隔病理診断の機能も備える。すでに国内外の多数の大学や医療機関で試験運用と実証実験をしているとのこと。

マイクロソフトも医療AIへ取り組みはじめる

医療とAIの関係はより密接なものになりつつある。多くの企業がAIを使い医療の改善、向上を目指している。

マイクロソフトは米国時間1月29日に、世界中の人々と地域社会の健康に貢献する「AI for Health」を発表した。AI for HealthはAIによって研究者や研究組織を支援し、世界中の人々や地域社会の健康を向上することが目的のプログラムだ。

AI for Healthは、ヘルスケア分野におけるマイクロソフトの広範な活動を補完する慈善活動のひとつ。AI for Healthを通して、特定の非営利団体や大学などと、マイクロソフトの主要なデータサイエンティストとのコラボレーション、AIツールとクラウドコンピューティングへのアクセス、および助成金などのサポートを提供するという。

説明可能なAIとは? Googleの「Explainable AI」に触れながら解説

AIが注目されている理由のひとつであるディープラーニングには、モデルがブラックボックスになるという問題がある。そこで、医療業界や金融業界を筆頭に、「説明可能なAI」への注目が集まっている。今回は、そもそも説明可能なAIとは何か?という部分から、最近Googleが発表した説明可能なAIを実現するためのツールの長短まで、株式会社HACARUSのデータサイエンティストである宇佐見一平氏に解説してもらった。

こんにちは、HACARUSデータサイエンティストの宇佐見です。

「説明可能なAI」という言葉はご存知でしょうか。

説明可能なAIとは、米国のDARPAの研究が発端の概念で、モデルの予測が人間に理解可能であり、十分信頼に足る技術、またはそれに関する研究のことを指します。

たとえば医療業界のように、診断の理由を患者さんに説明しなけらばならない場合には、説明可能で解釈性の高いモデルが必要です。このような業界にもAIの導入が進み始めている近年、説明可能なAIの必要性も増してきています。

そんななか、2019年11月21日にGoogleも「Explainable AI(外部サイト)」というツールを発表しました。そこで、本稿ではそもそも説明可能なAIとは何なのかを概観した後、GoogleのExplainable AIに触れながら、Googleがどのように説明可能なAIを実現しようとしているのか見ていきたいと思います。

説明可能なAIとは

近年AIが注目されるようになった要因の一ひとつとして、ディープラーニングの隆盛が挙げられます。

ただし、ディープラーニングは非常に強力な一方、モデルがブラックボックスになってしまうという問題点があります。つまり、AIの予測結果がどのような計算過程を経て得られたものなのかわからないため、精度が高かったとしても、その予測の根拠がわからなくなってしまうのです。

Photo by LinkedIn Sales Navigator on Unsplash

とくにモデルのブラックボックス化が問題視される例としては、医療業界や金融業界などが挙げられます。医療業界では「なぜAIがそのような診断を下したのか」を患者さんに説明できなければ、診断にAIを採用することは困難です。また、AIが間違った判定を下した場合に、なぜ間違ったのかを検証することができません。

このような背景があり、説明可能なAIに注目が集まっています。実際、権威あるデータマイニングの学会として有名なKDDの昨年度の発表のひとつに、説明可能なAIをテーマにしたものがありました。また、GoogleのExplainable AIのみならず、富士通や日立も説明可能なAIに関するサービスを発表しています。

説明可能なAIを実現するための手法もさまざまなものが開発されています。たとえば入力の属性に注目した「LIME」「SHAP」「Integrated Gradient」、モデルが注目する概念をテストするような「TCAV」、個々の学習データの有無や、その摂動がモデルとその予測結果にどのように影響を与えるかを計るための「Influence Functions」などが挙げられます。

GoogleのExplainable AIでは「Feature Attribution」という値に注目して説明可能なAIを実現しようとしています。Feature Attributionsの詳細については後述します。

Googleが発表したツール「Explainable AI」

2019年11月21日にGoogleが発表したExplainable AI。これはGoogleが提供している「AutoML Tables」と「Cloud AI Platform」上の機械学習モデルに対して利用できるものです。

Googleの「Explainable AI」。サイトより編集部キャプチャ

Googleによれば、Explainable AIを用いると、どの特徴がモデルの予測結果にどれだけ貢献しているかを知ることができます。

使用する前には「Google Cloud Platform」のプロジェクトの作成とAPIの有効化、学習済みモデルを保存する「Google Cloud Strage」の準備が必要ですが、一度準備ができれば基本的にはどのようなモデルに対しても予測結果を評価することができるようになります。また、使用すること自体に特別な料金は発生しません。ただし、Cloud AI Platformの使用時間が増加することに伴って全体の使用料金が増加することはあります。

また、予測結果を評価することで、以下のように役立てることができます。

  • モデルのデバッグ
    モデルが明らかに異常な挙動をしているとき、たとえば不自然に精度が高すぎる場合を考えましょう。Explainable AIを用いてモデルが注目している部分を可視化すると、テスト対象がアノテーションされたような画像に対して予測していたので精度が高かった、というようなミスを発見することができます。

  • モデルの最適化
    モデルがどの特徴量を重視しているかを特定して、重要視されていない特徴を除くことで、予測精度を挙げられる可能性があります。

次章以降で、実際にGoogleのExplainable AIでモデルの予測結果評価に用いられているFeature Attributionについて説明していきたいと思います。

モデルの予測結果を評価する「Feature Attribution」

GoogleのExplainable AIでは、Feature Attributionという値によってモデルの予測結果を評価します。

Feature Attributionの計算方法には「Integrated Gradients」と「Sampled Shapley」があります。Feature AttributionはSharpley値という値を上記の手法を用いて計算したものになります。Shapley値とは、ある特徴量がどれだけモデルの予測に貢献したかを示す値になります。

Integarated Gradientsはbaseline(画像であれば画素値がすべて0の画像、テキストであればすべて0のembeddingなど)から入力までの勾配を積分することで得られます。なので、ニューラルネットのような微分可能なモデルや巨大な特徴量空間を持ったモデルに対して使用することが推奨されています。

Sampled Shapleyは真のShapley値の近似値になります。Sampled Shapleyは、アンサンブルツリーのような微分できないモデルに使用することが推奨されています。GoogleのExplainable AIの機能を用いることで、これらの値を計算することができます。

それでは、実際にExplainable AIのチュートリアルを実行してFeature Attributionを見ていきましょう。

Explainable AIの実行例

GoogleのExplainable AIにはチュートリアルが用意されており、Collaboratoryの形式で配布されているので、簡単に実行することができます。チュートリアルにはテーブルデータと画像データ用があります。

まず、テーブルデータ用のチュートリアルを実行します。データセットとして、ロンドンのレンタサイクルに関するデータとアメリカ海洋大気庁の気象データが用意されており、そのうちいくつかの変数を用いて、どれくらいの時間自転車が使用されたかを予測するモデルを作成することがこのチュートリアルの目的になります。その過程で、Feature Attributionを計算します。

下図がFeature Attributionを計算した結果になります。値の正負、大小によって、ある変数がモデルの予測に寄与しているか、していないかを評価することができます。

テーブルデータに対するFeatureAttributionの計算例

続いて、画像データに対するチュートリアルを実行してみます。用意されたデータセットは5種類の花の画像で、チュートリアル内容は花の画像の分類問題になります。予測モデルを作成したのち、画像に対してFeature Attributionを計算すると、予測対象の画像にモデルの予測にもっとも貢献した画素のトップ60%を表示することができます。

下の画像がFeature Attributionを画像に重ね合わせたもので、緑色に塗られた部分がこの画像をあるクラスと分類するのに貢献したトップ60%の画素ということになります。

画像に対するFeatureAttibutionの例

Explainable AIのメリット・デメリット

ここまででチュートリアルを実行し、Feature Attributionがどのように表現されるかを見てきました。そこで、簡単に私が感じたExplainable AIの主要な長短についてまとめたいと思います。

メリット:重要な特徴量を一見して評価することができる

ここまでチュートリアルで見てきたように、モデルの予測にどの特徴量が大きく寄与しているのかを可視化できるため、直感的にどの特徴量が重要なのかを一見して判断することができます。

テーブルデータであればどの特徴量がモデルの予測に寄与するかを見ることで特徴量選択に使えるかもしれませんし、画像データであればモデルが重要視した部分を見ることで、そのモデルが本当に意味のある部分に注目しているかどうかも確認できるかもしれません。

デメリット:Feature Attributionは必ずしもモデルの計算結果を反映するものではない

Integrated GradientsもSampled Shapleyもどちらもモデルの計算結果を近似して得られるものです。

なので、基本的にブラックボックスであるDNNなどを用いると、Feature Attributionはモデルの計算結果を反映しているとは限らず、またモデルがどのようにして計算しているかまではわかりません。

つまり、たとえば画像に対してFeature Attributionを用いてモデルが重要視した部分はわかりますが、なぜそこを重要視したのか、どのような計算をして重要視したのかまではわかりません。つまり、モデルは未だブラックボックスのままであるということです。

最後に

ここまでGoogleのExplainable AIについて述べてきました。

メリット・デメリットの項において書いたように、基本的にモデルにブラックボックスであるものを用いると、計算過程は未だブラックボックスであったり、Googleがドキュメントで“Limitations of AI Explanation”として述べているようにFeature Attributionはある特徴が予測結果にどれだけ影響を及ぼすかを表すのみで、モデルのふるまいを表すものでは無かったりといった問題はあります。

それでも、簡単に計算結果を近似値で評価できるのは非常に使い勝手がいいと思います。上記の点は「問題」であるとみなすよりも、そのような「特徴」を持った機能であるとして、GoogleのExplainable AIをうまく使っていければいいのではないでしょうか。

(執筆・宇佐見一平、編集・高島圭介)

画像認識とは|歴史・仕組み・最新事例まで徹底解説

画像認識

スマホの顔認証や、生産工場での不良品自動検知システムなど、我々の生活に普及した画像認識の技術。ここ近年で急激に発展した印象を受けるが、実際はとても長い間研究されてきた分野である。

今回は改めて画像認識について、独自技術「人工脳SOINN」を開発するSOINN株式会社の長谷川修氏と一緒に仕組み、歴史やこれからの発展について解説していく。


長谷川 修 氏
元東京工業大学 工学院システム制御系 システム制御コース准教授。「工学研究は社会の役に立つために行うもの」との信念に基づき、2020年現在SOINN株式会社のCEOとして独自技術「人工脳SOINN」を研究開発している。

画像認識(Image Recognition)とは

画像認識とは、画像のなかに一体何が写っているのか、コンピューターや機械などが識別する技術。画像から色や形といった特徴を読み取り、その特徴をさまざまな学習機に入れて新たな画像を認識できるようにしたパターン認識技術のひとつ。

写真を検索にかける画像検索や、ディープラーニングとの併用によって複雑な特徴を捉えることが可能になり、猫や犬といった生物の画像を認識する技術など、現在さまざまな分野で活用が進んでいる。

たとえば人間の写真であれば、眉毛がふたつ、目がふたつ、鼻がひとつ、口がひとつあるという情報から顔を認識する。スマホやカメラの顔認識技術がまさに画像認識技術を応用したものである。

我々人間にとって物体を認識することは、成長する段階でごく自然に育まれていく。

Photo by Borna Bevanda on Unsplash

例として猫を挙げると、

  • 毛がふわふわしていて
  • 明るい・暗い場所によって瞳孔の形が変わる
  • ニャーと鳴く生き物

という生物は「猫である」と人間は経験から学習する。仮に体毛のない種類だとしても、ニャーと鳴くなどの雰囲気でこの生物は猫だと認識するだろう。

しかし、機械でこの認識を再現するとなると大変難しく、今まで多くの研究がなされてきた。そして近年、コンピューターやインターネットの普及でようやく精度が上がってきた。

画像認識の歴史

画像認識の研究自体はコンピューターが出てきた40年〜50年も前を起源としている。そのなかで長谷川氏が研究を通して見てきたのは、いかに人間を超えられないか思い知らされる歴史だったという。

――長谷川
「顔認識も10年くらい前はまだまだ研究段階。最近ようやく人間の顔を判断可能になり、犬や猫の顔も認識できるようになりました。

絵で描かれた犬や猫は人間の子供だと容易に認識できます。これは“わんわん”、これは“にゃんにゃん”というふうに理解できますよね。しかし、研究でやろうとするとこの認識がなかなかできなかったのです」

画像認識技術が一気に進んだ背景にはどのような理由があるのか。

――長谷川
もとを辿ると日本人の福島邦彦さんが1979年に発表した『ネオコグニトロン』という神経回路モデルが、今の画像認識ブームを牽引しているCNN(Convolutional Neural Network)そのものです。

彼はNHK技研で研究した後、大阪大学などで教鞭をとっていて、そのときに彼の講演を学会で聴講した記憶があります。そのころから画像をたくさん並べて、畳み込みやプーリングの処理を行なっていた人です」

ネオコグニトロンの回路構造。Copyright © 福島邦彦 2006, All Rights Reserved.

福島 邦彦 氏
脳における情報処理機構の解明のために、神経回路モデルを仲介とする合成的手法を用いて研究を進めている。 とくに、視覚系における情報処理や記憶・学習・自己組織化の機構の神経回路モデルの構成などに興味を持つ。
「ネオコグニトロン」(学習によって視覚パターン認識能力を獲得していく deep CNN,1979年に発表)や、「選択的注意機構のモデル」(特定の視覚対象に注意を向けてその対象物を認識し、ほかの物体から切り出してくる機能を持った神経回路モデル)などを提唱した。
プロフィール詳細

2019年にコンピューター界のノーベル賞と言われる「チューリング賞」を受賞したFacebook AIラボ所長のヤン・ルカン氏も過去にNatureへ投稿した論文で福島氏の論文を引用している。

――長谷川
「近年の第三次AIブームは計算マシンの能力が上がり、インターネットでビッグデータを得られるようになったため、同じ手法でも大きな結果を残せるようになったのがブームになった理由のひとつでしょう。

以前国内ではあまり相手にされなかったのに、海外企業がニューラルネットワーク、ディープラーニングと言い始めると、みんなわっと飛びつくようになったのは非常に複雑な心境です」

もしあの時、日本が動いていれば、と思う人も多いかもしれない。

2012年の大規模画像認識協議会「ILSVRC」でトロント大学のチームがはじめてディープラーニングを画像認識に使って圧勝したことにより、世界的に改めてディープラーニングが使える段階に入ったと再認識されたのだろう。

昨今の画像認識ブームとディープラーニングが密接な関係を持っているのは確実だ。

画像認識の仕組み

実際に画像認識は、どのような仕組みで動いているのか。

――長谷川
「前準備として、コンピューターで画像を適切な形に処理し、ディープラーニングを用いた識別機に画像を入れて学習させます。そして学習が完了した識別機に新たな画像を入力すると、これは何%の確率で何であるという結果を画像認識が出してくれます」

今我々が見ているスクリーンは、小さなピクセルの集合体である。デジタル画像にはラスター画像とベクター画像の2種類が存在し、多くの写真はラスター画像というピクセルの集合体で構成されているため、その分解から始めるのだ。料理をするときに野菜を洗い、細かく切る行動と似ている。

下の画像を参考にして説明していく。

Photo by FineGraphics on 写真AC

画像を拡大していくと、小さい四角(ピクセル)が見えてくる。よくテレビやカメラなどの解像度を表現する際、「〇〇万画素」という表現をするが、それは単位面積あたりに何個ピクセルがあるかを説明している。ピクセルが多ければ多いほど、滑らかで綺麗な画像になるのだ。

  • 画像処理
    コンピューターが画像を認識しやすくするために、特定の処理を行う。主に画像のノイズや歪みを取り除き、明るさや色彩を調整、物体の輪郭を強調して、物体の領域を切り出す。

  • 画像から情報を抽出
    画像からピクセル単位で特徴を抽出。ピクセルは画像を構成する最小要素であり、色や明るさなど、さまざまな情報がついている。これら情報のパターンを確認することで、何が画像に写っているのか認識をする。

  • 特定物体認識
    事前に「ラベル」「大量の画像データ」を学習させ、そのなかに識別させたい画像を入力することで何が画像に写っているのかを特定する。

そしてここから、ディープラーニングを構成しているニューラルネットワークの一種、畳み込みニューラルネットワーク(CNN)が重要となってくる

ディープラーニングを用いた画像認識モデル

CNN(Convolutional Neural Network)


今までは、特定物体認識の部分で、人間が主観に基づいたラベル付けをしていた。それに比べて、CNNは人間でもわからない特徴量を導き出して学習していく。これによって大幅に識別率が向上し、昨今の画像認識ブームへと繋がった。

音声、数字などのデータは、ランダムな中からどのデータを取るか設定する必要がある、ゆえに今までのニューラルネットワークでは分類までに多くの時間を要した。それに比べて画像などの空間的データは、限られた空間内での隣接性を利用できる。

画像のなかでは、あるピクセルと遠いところに位置しているピクセルが影響することは少ない。その一方で空間では近くにあるものほど影響を受けるため、画像も近くにあるピクセルから影響を受ける。この性質を使い、パラメーターの数を少なくしたのがCNNである

Ledge編集部で作成

CNNでは、入力に近い側から順番に簡単な特徴量が学習され、それが組み合わされることによってより複雑な特徴量が学習される。主な処理として、「畳み込み(Convolution)」と「プーリング(Pooling)」がある

  • 畳み込み(Convolution)
    たくさん画像を見せていくと、「この画像にはこういう特徴がある」ということを学習していく。画像中から切り出された範囲に、特定の関数を重ね合わせることで特徴を表すマップを生成する作業。

  • プーリング(Pooling)
    プールするという英語が、水たまりなどを意味する。特徴のなかから、より優先して特徴を選んでひとまとめに絞り込み、そのなかから一番値の大きいものを選んでいく手法。

参考文献:AI白書 2019

CNNは畳み込みとプーリングを交互に行うことで構成されている技術であり、画像認識以外にも物体検出、クラス分類、物体セグメンテーションや画像キャプション生成などさまざまなところで中心的に用いられている。

いくつかの過程を経て、最終的になにがどのくらいの確率で画像に写っているのかを出力してくれる。

この結果を応用して、カメラの顔認証や画像検索など、さまざまなシステムへ実装されていくのだ。

画像認識ライブラリ

実際に画像認識の技術を導入したいと思ったときに使えるライブラリを紹介しよう。どのライブラリが一番優れているというのはなく、使う目的や状況に応じて選択するのが良いだろう。

画像認識に使える主要なライブラリは以下の通り。

TensorFlow

Copyright © TensorFlow, All Rights Reserved.

Googleが開発した機械学習用のオープンソースソフトウェアライブラリ。
顔認識・音声認識・自動運転など多方面で実装されている。

OpenCV

Copyright © OvenCV, All Rights Reserved.

Intelが開発したオープンソースコンピュータービジョン向けライブラリ。
画像処理・構造解析・機械学習などに実装可能。

PyTorch

Copyright © PyTorch, All Rights Reserved.

FacebookのAI Research lab(FAIR)が開発した機械学習用のオープンソースソフトウェアライブラリ。Pythonにおける数値計算を効率化する拡張モジュールであるNumpyと操作方法が似ており、近年人気が上昇している。Caffe2が併合、Chainerの開発元PFNが研究開発基盤をPyTorchへ移行すると発表した。

画像認識API

加えて、企業などがすぐ使えるサービスとして用意されているAPIも紹介する。

Watson APIs「Watson Visual Recognition

Copyright © IBM Watson, All Rights Reserved.

IBMが開発したAI「Watson」の提供する画像認識API。既に画像学習が済んでいるため、さまざまな用途で利用可能。もちろん機械学習で独自の学習をさせられる。基本有料だが、「ライト」表記のあるAPIは無料で利用可能。

AWS「Amazon Rekognition

Copyright © AWS, All Rights Reserved.

Amazon Web Serviceが提供する画像認識API。コンピュータビジョン向けクラウドベースSaaS。機械学習の専門知識は必要とせず、データを提供するだけでタグ付けなどを自動で処理してくれる。

Azure「Computer Vision API

Copyright © Microsoft Azure, All Rights Reserved.

MicrosoftのAzure Cognitive Serviceが提供する画像認識API。画像を認識した後の特徴抽出をしてくれる機能が多数ある。

画像認識の活用事例

ここからは、画像認識に関する活用事例をまとめていく。

製造業の事例

製造業にAIを導入する際のリアルタイム性・セキュリティー性問題をエッジAIで解消。また、長期的運用を視野に入れた顧客企業向けのデータサイエンティスト育成事業も手掛ける。ALBERTとマクニカの製造業AI導入に関する対談。

Canonの事例

画像認識AIで数千人もの人数を数秒でカウントできる映像解析技術をキヤノンが開発。今までの映像解析技術は人口密集環境における人数カウントが困難だったが、セキュリティー・マーケティングに応用できるとして付加価値創造を目指す。

自動運転の事例

埼玉工業大学がキャンパスと最寄駅を自動運転のスクールバスで繋げる計画を始動。バス車内のディスプレーでは、ライダーやカメラによる画像データをディープラーニングによりリアルタイムで解析。AIによる自動制御の仕組みがわかる各種情報などが表示され、学生は通学時にAIを体験的に学習できる。

無人レジの事例

AIによる無人レジの動き、Amazon GoやJR東日本とサインポストが協業のAI無人決済システム「スーパーワンダーレジ」を始め、国内外で動きが活発になっている。記事では、国内・海外の無人レジの事例を、仕組みや現状を交えて紹介する。

パン画像認識レジの事例

全国300店舗で利用されているAIレジ「ベーカリースキャン」開発元である、株式会社ブレインの原 進之介執行役員に開発までの道のりを聞く。ディープラーニングだけがAIではない、役に立つ、夢のある製品の作り方とは。

技術継承の事例

高齢化と後継者不足が課題となっている養蚕業にAIを導入、プログラミング未経験者でも簡単に活用ができるNeural Network Consoleで技術の継承に挑む。

テレビ業界の事例

日テレで2019年7月21日の地上波で放送された番組「NNN参院選特番 ZERO選挙2019」と「日テレNEWS24×参議院選挙2019」。その裏で、AIの顔認識技術を使った実験が行われた。映像内の人物と名前の間違いによる誤報を防止するための、確認作業の工数を大きく削減させたという。

ヘルスケアの事例

いつ、どこで、なにを、どれくらい食べたのか?何時間寝たのか?運動時間は?というような手間のかかる入力作業が、ヘルスケアアプリのユーザー離脱要因となっている。この課題を解決する方法を、AIを用いて新時代のUI・UX体験を開発するFiNC Technologies 代表取締役CTO 南野充則氏に聞いた。

農業の事例

農業における就業人口の減少と高齢化に対する省力化を進めるべく、ドローンで上空からキャベツを撮影し、膨大な量の画像をつなぎ合わせてAIで解析。将来的にはキャベツの育成状況から収量の予測を目指すプロジェクトが発足。

人工脳SOINNという手法

これまでディープラーニングを主流とした画像認識を紹介してきたが、ディープラーニング以外の方法で画像認識技術を実装する方法も存在する

それが長谷川氏が開発している、人工脳SOINNだ。人工知能と人工脳、一見違いがないように思えるが、使っている技術から違うのだという。

人工脳とは

人工脳はAIを育成するとき、競合学習法を主なベースとしている。

競合学習法はニューロンがはじめにふたつだけあり、あとは与えられたデータによって自分で成長していく。一方、ディープラーニングは誤差逆伝播法をベースにしており、誤差逆伝播法はニューロンをいくつもの層にして並べ、膨大な数のデータから特徴を厳選して精度を高める。

――長谷川
「ディープラーニングは最初に器を決めて、データを入れる。大きすぎたり、小さすぎたり、どこが最適か見極めるのも大変で、後でデータを入れたくなったときも再度構造を変えて計算し直したりするのでいろいろ制約があります。

その部分を柔軟に解決する方法として人工脳を開発しています。以前はあまり理解されなかったのですが、ディープラーニングのブームも相まって徐々に有用性が理解され使っていただけるようになってきました」

ディープラーニングがビッグデータを用いて学習される教師あり学習、人工脳が人間のように少ないデータから自分で特徴を学習していく教師なし学習と捉えると分かりやすいかもしれない。

認識させたい対象の画像を取り込み、CPUだけで教師データを覚えさせれば、活用が可能になる

――長谷川
「AIに学習させる際、不良品の画像を集めて欲しいというと、多くのクライアントは『それほど数がない』と言います。不良品の画像は出したくないというクライアントもいます。

そこで、通常大量にあるOK品の画像のみで学習させ、OK品と違いのある画像があれば、それを不良品の候補として取り出す学習器を作りました。
候補画像は現場でベテランに確認いただき、確かに不良品となれば、それを不良品画像としてその場で追加学習できるようにしていきました。

現場のベテランは、AIにとって最良の先生です。ベテランが新人を教育されるように、日常業務の延長に近い形でAIに教示頂けるよう、機械学習プロセスやUIなども工夫しています。

ベテランが現場のPCで、AI出力の確認や修正・再学習ができるようにすることもよくあります。これができると、クライアントは社内で、自らAIを育てられ、育ったAIはそのまま管理下におけるなどメリットが多く、とても喜んでいただけます」

SOINNの活用例

  • 地下の異常検知
    地下にあるインフラの形を作業車で移動しながら専用のレーダーで調べ、画像で出力された結果を人間が判断し異常を探す。ベテランでも1日10kmが限界だったが、人工脳を導入した結果1時間に200km見られるようになった。AIが示した異常個所だけを人間が再チェックするため、効率が大幅に向上した。今では多くの道路点検AIに人工脳が導入されている。

  • 家庭ゴミ焼却発電所
    家庭からでたゴミを燃やしてその蒸気で発電する廃棄物発電。無駄なく発電するためには、天気やゴミの量をもとにその日の焼却調節、最適化していた。しかし、ベテランが経験をもとに行なっており、人材が不足していた。そこで人工脳がまずベテランの知識を学び、最適化して導入していく。ベテランが行う同じレベルの燃焼効率を24時間連続で実現するのが目標。今現在テスト運用が始まっており、実用間近だ。

人間ができない作業(24時間作業、長時間のチェック)をAIが代替する代わりに、最後の重要なチェックなどを人間がすることで効率的に精度の高い仕事ができるようになるという。

企業は持っているデータによって、ディープラーニングを使うのか人工脳を使うのか選定した方が良いであろう。

――長谷川
今後は災害予測、洪水予測や避難誘導にも活用していきたい。業態関係なく、SOINNを持っていくだけでデータを学習し専用AIを各企業で育てられるようになるのが目標です

画像認識の今後

Photo by Rico Reutimann on Unsplash

――長谷川
「わからないことを『ググる』と言いますが、今後はそれがさらに進み、いろいろなものにAIが搭載され、ググらなくても教えてくれたり、自分に代わって機器や装置を操作してくれるようになるでしょう。

誰もが、自分のスマホで自分専用AIを育てる時代はそう遠くはないはずです。スマホのような個人端末は、個人情報の宝庫です。預金残高や健康診断の結果といったプライバシー情報に、自分でアクセスすることは何の問題もありません。同じように、自分専用のAIにだけは、アクセスを認めるのです。

プライバシーを守りつつ自分の「すべて」を学習し、自分のために働いてくれる自分専用AIは、国民的アニメのネコ型ロボットのように、無くてはならぬ相棒になるでしょう。近年発展の目覚ましい画像認識技術も、そうした世界の実現に必須の要素技術であり、さらに進歩して行くでしょう」

今後は画像認識を活用した技術で、便利な世界がやってくるのは必然であり、CES2020で発表されたToyota Woven Cityプロジェクトなど、新時代が楽しみなのは間違いない。

だからこそ、画像認識やAIが当たり前になった世界で何が必要とされるのか見極めることが、次の時代を生きるヒントになるのかもしれない。

進研ゼミでもAIで学習、中学講座にLINEの「Clova」採用

画像は「進研ゼミ 中学講座」公式サイトより

学校や学習塾などで、AIを活用する事例が増えつつある。2020年度からプログラミング教育の必修化にともなってAI自体の授業を実施する例もあるが、個々人の学習進捗に合わせた「アダプティブラーニング」などにAIが活用されることが増えつつある。

株式会社ベネッセコーポレーションは2月10日に、同社の通信講座「進研ゼミ中学講座」の2020年4月号から個別対応を強化すると発表した。具体的には、専用タブレットで学習するハイブリッドスタイルコースをリニューアル。専用タブレットにLINE株式会社のAIアシスタント「Clova」を搭載し、「AI学習アシスタント」として勉強中の疑問解消や学習法アドバイスをしていく。

>>ベネッセコーポレーション プレスリリース
>>LINE Clova公式ブログ

中学生ならではの学習環境とニーズに合わせる

進研ゼミの調査によれば、「部活で学習時間がとれない」「苦手な教科を中心に勉強したい」など、子どもの学習環境とニーズはさまざまだそうだ。これらのニーズに応じた学習アドバイスが可能な専用スキルをLINEはClovaで初めて開発した。

たとえば「学校の部活が忙しすぎる」と話しかけると、目標学習数の調整を提案し、継続的な勉強ができるようにアドバイスする。すべてのレッスンを消化するのではなく、一人ひとりの勉強意欲に沿った学習サポートを提案していくそうだ。

また、Clovaならではの話しかけることによる検索機能を使えるのも魅力だ。

「東京にはどんな高校があるの?」「入試問題ってどんな感じなの?」とタブレットに話しかけると、これらの疑問を解決できる進研ゼミ内の高校入試情報サイトへ遷移するそうだ。高校の偏差値や入試の傾向もわかるという。

さらに、中学生活を充実させられそうな「LINE MUSIC」との連携機能もある。友達間で流行している音楽について「〇〇をかけて」と話すと、LINE MUSICに登録されている曲のなかから音楽を楽しめるそうだ。

もちろん、知らない単語の意味を調べたり、英語の翻訳が可能だったりと、勉強に役立つ機能も使える。

月々の受講費は中1が6980円、中2が7190円、中3が7980円。6ヵ月、12ヵ月と一括払いを選択するとそれぞれの価格は割り引かれる。

AI英会話アプリで英語外部試験合格率が約10%向上

学習にAIを活用する事例はいくつかあるが、英語という科目に絞ればジョイズ株式会社が今年1月に発表したリリースは“いい成果”を残している。それは、同社の英会話学習アプリケーション「TerraTalk(テラトーク)」を導入している松蔭中学校・高等学校で、英語外部試験合格率が導入前後で10%向上したというのだ。

導入した松蔭中学校・高等学校(兵庫県神戸市)では、生徒約600人に対して新出文法の定着を図るための発話・音読練習、外部検定試験の面接対策として、授業や宿題で活用。その結果、テラトーク導入前に比べ、外部検定試験の合格率が約10%向上した。

テラトークは、AIとの英会話を通じてさまざまな場面での実践的な英語の習得を可能にする英会話アプリ。AIが発音や表現の出来を診断し、「語彙」「発音」「流暢さ」「文法」の項目で英語力を総合的に評価する。つまりは、定量的な評価指標が実装されているため、指導が効果的かつ効率的にできるようになっているそうだ。

マイクロソフトが非営利団体などを支援する医療向けAI事業を発表、規模は5年で4000万ドル

マイクロソフトは米国時間1月29日に、世界中の人々と地域社会の健康に貢献する「AI for Health」を発表した。AI for HealthはAIによって研究者や研究組織を支援し、世界中の人々や地域社会の健康を向上することが目的のプログラムだ。

この発表は、マイクロソフト内のブログ(外部サイト)で公開されている。

世界中の人々や地域社会の健康向上が目的

AI for Healthは、ヘルスケア分野におけるマイクロソフトの広範な活動を補完する慈善活動のひとつ。AI for Healthを通して、特定の非営利団体や大学などと、マイクロソフトの主要なデータサイエンティストとのコラボレーション、AIツールとクラウドコンピューティングへのアクセス、および助成金などのサポートを提供するという。

注力するのは次の3つの分野。

  • 発見の探求: 疾病の予防・診断・治療を推進する医学研究を加速する
  • 世界的な医療に関する知見: 世界規模の健康危機から保護するために、死亡率と長寿に関する共通の理解を深める
  • 健康の公平性: 健康状態の不平等を減らし、人々が十分なケアが受けられるようにアクセスを改善する

このプログラムは堅固なプライバシー、セキュリティ、倫理の基盤に基づいており、重要な医療の課題に取り組む専門家との協業によって遂行されるとのことだ。なお、規模は5年間で4000万ドルとされている。

ちなみに、AI for Healthは、「Microsoft AI for Good」の5番目のプログラムだ。AI for Goodは、先進的テクノロジーにより、研究者、非営利団体、企業による、今日の社会が直面する重要課題の解決策の開発を支援する1億6500万ドル規模の取り組みだ。

医療関係におけるAI人材不足に悩まされる

マイクロソフトは、医療の課題にはAIが重要な役割を果たせる領域があると考えている。それこそ、営利目的の医療産業から軽視されていた領域において新たなソリューションの開発の加速と拡大を支援することは同社が進むべき道である、と発表内容に記されていた。

同発表では、テクノロジーによって医療の改善を見込めるとしている。

たとえば、糖尿病網膜症のスクリーニングを効率化の可能性。4億6300万人の人々が直面する課題だが、世界には眼科医が21万人しかおらず、そのリーチの拡大を支援する必要があるとされる。また、乳幼児突然死症候群 (SIDS) のケースでは、影響を受ける人口を考慮すると、営利目的企業では十分な研究投資が困難だったものの、テクノロジーによる連鎖効果によって乳幼児の全体的死亡率を低下できる可能性があるという。

これらのテクノロジーの価値を最大限に引き出すには、医療専門家を支援してくれる技術専門家との連携が必要だ。しかし、AIを専門とする職に就いている人は、過半数がテクノロジー業界で働いている。そのため、医療関連組織や非営利団体で働く者は5%以下だそうだ。世界中の医療関係の研究者は、AI関連の人材不足に悩まされている。

AI for Healthは他組織との協業により遂行されている

先にも記載しているように、AI for Healthは医療上の発見、健康に関する洞察の獲得、世界の医療の不平等の解消を目指している。マイクロソフトの業界最高レベルのAIツールと技術専門知識を活用し、他組織との協業によって遂行されているようだ。同ブログでは、現在進行中のプロジェクトが明かされた。

  • Seattle Children’s Research Instituteとの協業により、乳幼児突然死症候群 (SIDS) の原因と診断に関する研究を進めています。
  • Novartis Foundation との協業により、ハンセン病の伝染を防ぎ、根絶する取り組みを加速しています。
    失明を防ぐための初期診療に活用できる、糖尿病網膜症の総合診断ソフトウェアを Intelligent Retinal Imaging Systems (IRIS) と共同開発し、展開しています。
  • 組織横断型のデータアクセスによって癌の防止と治療を加速するブレークスルーを Fred Hutchinson Cancer Research Center と Cascadia Data Discovery Initiative と共同研究しています。
  • マイクロソフトブログより転載)

進む医療でのAI活用、大腸ポリープ検出にも

いま、医療分野におけるAI活用は日々進んでいる。

サイバネットシステム株式会社は1月29日、人工知能(AI)を用いて大腸内視鏡診断におけるポリープなどの病変の検出を支援するソフトウェア「EndoBRAIN-EYE(エンドブレインアイ)」について、「医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(医薬品医療機器等法)」に基づき、クラスII・管理医療機器として承認の取得を発表した。

大腸内視鏡で撮影された内視鏡画像をAIが解析し、ポリープなどを検出すると警告を発し、医師による病変の発見を補助するソフトウェア。臨床性能試験では感度95%、特異度89%の精度で病変の検出が可能で、内視鏡医の支援に足る十分な精度を達成した。

内視鏡検査に携わる医療従事者の負担を軽減させ、ポリープなどの検出率を更に高めることも狙っている。