農家の収益2倍へ、自動収穫ロボ活用:人工知能ニュースまとめ7選

日々、目まぐるしく進化、発展を遂げるAI(人工知能)業界。さまざまな企業が新しいサービスを開始したり、実験に取り組んだりしている。

そこで本稿ではLedge.aiで取り上げた、これだけは知っておくべきAIに関する最新ニュースをお届けする。AIの活用事例はもちろん、新たな実証実験にまつわる話など、本稿を読んでおけばAIの動向が見えてくるはずだ。

マイクロソフトが非営利団体などを支援する医療向けAI事業を発表

マイクロソフトは米国時間1月29日に、世界中の人々と地域社会の健康に貢献する「AI for Health」を発表した。AI for HealthはAIによって研究者や研究組織を支援し、世界中の人々や地域社会の健康を向上することが目的のプログラムだ。

AI for Healthは、ヘルスケア分野におけるマイクロソフトの広範な活動を補完する慈善活動のひとつ。AI for Healthを通して、特定の非営利団体や大学などと、マイクロソフトの主要なデータサイエンティストとのコラボレーション、AIツールとクラウドコンピューティングへのアクセス、および助成金などのサポートを提供するという。

進研ゼミでもAIで学習、中学講座にLINEの「Clova」採用


株式会社ベネッセコーポレーションは2月10日に、同社の通信講座「進研ゼミ中学講座」の2020年4月号から個別対応を強化すると発表した。具体的には、専用タブレットで学習するハイブリッドスタイルコースをリニューアル。専用タブレットにLINE株式会社のAIアシスタント「Clova」を搭載し、「AI学習アシスタント」として勉強中の疑問解消や学習法アドバイスをしていく。

「学校の部活が忙しすぎる」と話しかけると、目標学習数の調整を提案し、継続的な勉強ができるようにアドバイスする。すべてのレッスンを消化するのではなく、一人ひとりの勉強意欲に沿った学習サポートを提案していくそうだ。

「がん」を瞬時に判定するAI登場、正答率は病理専門医に迫るほど

広島大学の有廣光司教授、加藤慶ならびにメドメイン株式会社の飯塚統、Fahdi Kanavati、Michael Rambeau、常木雅之(責任著者)による「胃・大腸における上皮性腫瘍の病理組織学的分類を可能にするAIモデルの開発」に関する論文がNature Publishing Group刊行の「Scientific Reports」より出版されたことが2月3日に明らかになった。

開発には、スーパーコンピュータシステムが用いられ、試験データによる検証の結果、機械学習の精度の評価に用いられる指標「AUC」がいずれも0.96以上(1に近いほど判別能が高い)という、きわめて高い精度(病理専門医の正答率に肉薄した精度)を得るに至ったとのこと。

農業者の平均年齢67歳、野菜を自動収穫するロボットで収益2倍に

AGRIST株式会社(アグリスト)は1月31日にAIを活用した農産物の自動収穫ロボットを開発。今年1月からビニールハウスで運用を開始していると発表した。これは、収穫量の向上を実現し、農家が抱える課題を解決するロボットだそうだ。

アグリストの公式サイトによれば、同社のロボットは「感覚的に農家さんが操作できるユーザーインターフェイスを実現します」とうたっている。ボタンひとつで動き出し、バッテリーの充電や再生停止も1クリックで可能。シンプルな構造にしたからこそ、農家に対して低価格でサービスを提供できる。

全滅リスクがあるチョウザメ養殖、ソフトバンクらがAIなどで研究

国立大学法人北海道大学大学院水産科学研究院とソフトバンク株式会社は2月13日、今年2月からIoTやAI(人工知能)を用いたチョウザメのスマート養殖共同研究プロジェクトの開始を発表した。このプロジェクトでは低コストかつ効率的な養殖方法の確立を目指している。

主な研究は、機械学習(Machine Learning)を用いるチョウザメの個体識別や行動分析だ。異常行動の早期発見、病気のまん延防止、水流停止や餌の供給過多のような養殖環境の異常を検知し、全滅を防ぐ方法の研究をする。

訪日外国人には自動販売機が難しい?

JR東日本ウォータービジネスは2月13日に、「インバウンド向け多機能自販機」の実証実験を3月19日から開始することを発表した。自動販売機にAIを搭載し、多言語での案内・説明に対応する。

自動販売機の使い方から、商品の詳細情報、決済方法など、日本語以外に英語・中国語・韓国語で案内できる。また、顔認識システムを備えたカメラの搭載によって、利用者の性別や年齢層など属性の識別が可能だ。識別した属性、外の気温、時間帯それぞれに応じたおすすめの商品を紹介するのも特徴のひとつ。

子どもの「裸の自画撮り被害」をAIで防止する格安スマホが発売

株式会社ドリーム・トレイン・インターネットが運営するトーンモバイルは2月14日、AIによって裸などの自画撮り被害を防ぐカメラを搭載したスマートフォン「TONE e20」の発売を発表した。発売日は2月20日で価格は1万9800円(税抜)。

自画撮り被害の抑止を目的として、裸やそれに近い服装など撮影時にAIが不適切な画像と判定した場合には、シャッターを切る、もしくは動画を撮影していても、画像および動画が本体や各種クラウドサービスには保存されなくなる。

子どもの「裸の自画撮り被害」をAIで防止する格安スマホが発売

※写真はイメージです

「自画撮り被害」なる事件が年々増加しているそうだ。

東京都都民安全推進本部(外部サイト)によれば、自画撮り被害とは「だまされたり、脅されたりして18歳未満の子供が自分の裸体等を撮影させられたうえ、メール等で送らされる被害」を指す。

同サイトでは、「SNSで親しくなった人を信じて裸の画像を送ったら、ネット上で公開されてしまった」「『画像をアップするぞ』とおどされ、呼び出されてひどい目にあった」などという被害事例があると書かれている。

画像は東京都都民安全推進本部より

機械学習によって不適切な画像を規制・検出

そんななか、株式会社ドリーム・トレイン・インターネットが運営するトーンモバイルは2月14日、AIによって裸などの自画撮り被害を防ぐカメラを搭載したスマートフォン「TONE e20」の発売を発表した。発売日は2月20日で価格は1万9800円(税抜)。

画像はプレスリリースより

TONE e20は、同社の既存端末と比べAI機能が大幅に向上した。なかでも、世界初とうたうAIフィルターを搭載した「TONEカメラ」が特徴的。

自画撮り被害の抑止を目的として、裸やそれに近い服装など撮影時にAIが不適切な画像と判定した場合には、シャッターを切る、もしくは動画を撮影していても、画像および動画が本体や各種クラウドサービスには保存されなくなる。

カメラだけではなく「動画撮影」でも判定されるのがポイントで、不適切な画像や映像を検出すると「撮影不可のアラート」が1~2秒間表示される(カメラモードでも同様のアラートが発生)。

画像はプレスリリースより

また、不適切と判定された撮影があった場合には保護者に通知が送られる。通知内容には「日時」「モザイクされたサムネイル」「位置情報」が含まれる。なお、TONEカメラはオンデバイスAI技術を採用しているので、AIによる判断などは端末本体で処理されプライバシーは守られる。

画像はプレスリリースより

発売するトーンモバイルは、「子どもの見守り機能」が充実していることに定評のあるブランド。スマホの使い過ぎを防いだり、居場所をいつでも確認できたりする。一部機種では、GPSを利用して場所ごとにアプリを使えなくする機能もある。これは、学校内でのスマホ使用を制限するときに活用できるという。

画像はプレスリリースより

カメラがAIによって被写体を検出し、“いい感じ”の写真に仕上げてくれるスマホは数多いが、子ども向けのスマートフォンとしては比較的安価で防犯面を充実させた機種に人気が集まるのかもしれない。まぁ中高生からは「iPhoneじゃなきゃ嫌!」のような声は少なくないようだが……。

>>トーンモバイル

訪日外国人には自動販売機が難しい?

※写真はイメージです

まったく意識したことはなかったが、訪日外国人にとって日本の自動販売機は難解なのかもしれない。ひとえに缶コーヒーといっても、無糖、微糖、カフェオレ……いっぱいあるし(Google検索で「缶コーヒー 多すぎ」って出たのはさすがに笑った)。

株式会社JR東日本ウォータービジネスが訪日外国人を対象にした自動販売機に関する調査では、およそ3割の人が「操作が難しいと感じたことがある」と回答。また、中国からの旅行者は「決済方法が難しいと感じた」、韓・米からの旅行者は「飲料の種類が分かりにくいと感じた」とコメントしたそうだ。

この結果を受け、JR東日本ウォータービジネスは2月13日に、「インバウンド向け多機能自販機」の実証実験を3月19日から開始することを発表した。自動販売機にAIを搭載し、多言語での案内・説明に対応する。

AIが搭載されている自販機のイメージ

商品説明だけでなく天気予報や乗換案内も

インバウンド向け多機能自販機には、15インチのタッチパネルが搭載されている。

タッチパネルには株式会社ティファナ・ドットコムの「AIさくらさん」のバーチャルアニメーションが表示され、タッチパネル操作や口頭での質問に対してAIを活用したさまざまな案内をする。

自動販売機の使い方から、商品の詳細情報、決済方法など、日本語以外に英語・中国語・韓国語で案内できる。また、顔認識システムを備えたカメラの搭載によって、利用者の性別や年齢層など属性の識別が可能だ。識別した属性、外の気温、時間帯それぞれに応じたおすすめの商品を紹介するのも特徴のひとつ。

このインバウンド向け多機能自販機は、高輪ゲートウェイ駅前特設会場「Takanawa Gateway Fest(高輪ゲートウェイフェスト)」に設置されるそうだ。その後、3月中を目途に、東京駅、新宿駅、上野駅、秋葉原駅にも設置予定という。

高輪ゲートウェイ駅での設置場所

都市部の主要駅に設置されるだけあって、自動販売機には乗換や駅構内の案内も表示可能とのこと。大迷宮と名高い新宿駅に迷い込んでしまった訪日外国人の救世主になるのだろうか。

自動販売機に搭載される「AIさくらさん」は何者なのか

今回の自動販売機にも搭載されるAIさくらさんは、東京都内の駅を利用した人は見かけたことがあるかもしれない。東京駅などの一部駅では、AIさくらさんが稼働していて、駅構内の案内などをしてくれる。

そもそも、AIさくらさんは案内をすることはもちろんのこと、社内のヘルプデスク対応や社外問い合わせ対応など、これまで人が対応していた業務を肩代わりする存在だ。

過去にLedge.ai編集部が、AIさくらさんを運営するティファナ・ドットコムに2019年当時に実施された東京駅への実証実験時の取材では

「背景にあるのは受付や案内業務における人手不足です。外国人観光客の案内業務に駅員の工数がかなりの割合で割かれており、2020年のオリンピックに向けてこれから更に増えると予測されています」
「キャラクターデザインの際、親しみやすさにはかなり気を配りました。
AIが受け入れられるには、ユーザーに長期的に使ってもらわないといけません。使い続けることでAIさくらさんは適切な答えを学習し、ユーザーも使い方に慣れていきます。

導入が短期間だと準備に時間がかかるだけで、効果を十分に得られないまま終わってしまう。長期を見据えた導入で、AIだけでなくユーザー側も学び、慣れる必要があります」

と語られている。

個別の問い合わせに対し、それぞれが対応できるのがベストではあるものの、都市部の駅などでは人員問題によって現実的ではない。

今回のインバウンド向け多機能自販機のニュースを知った当初は「自動販売機をそこまで多機能にする必要性あるのか?」と思ったが、自販機がさまざまな案内に追われる駅員さんを肩代わりする存在に昇華したと捉えればいいプロダクトだと感じる。

全滅リスクがあるチョウザメ養殖、ソフトバンクらがAIなどで研究

Photo by Hans Braxmeier on Pixabay

高級食材のひとつ「キャビア」は、チョウザメの卵だ。しかし、そのチョウザメの養殖方法は確立されておらず、環境の変化によっては全滅する可能性があるという。

国立大学法人北海道大学大学院水産科学研究院とソフトバンク株式会社は2月13日、今年2月からIoTやAI(人工知能)を用いたチョウザメのスマート養殖共同研究プロジェクトの開始を発表した。このプロジェクトでは低コストかつ効率的な養殖方法の確立を目指している。

高い飼育コストと監視体制の構築などが課題

チョウザメの養殖は、卵を産むまでに6年以上の飼育が必要だ。さらに、雌雄の区別が可能になるまで2~3年の期間を要するため、非常に高い飼育コストがかかる。くわえて、養殖環境が変化するだけで全滅するといったリスクもある。このため、チョウザメの養殖には飼育員による長期間の監視を求められていた。

北海道大学とソフトバンクが共同研究で、IoTやAIなどを用いて行動を解析することで、チョウザメの養殖における各種リスクお軽減や課題の解決をねらう。

主な研究は、機械学習(Machine Learning)を用いるチョウザメの個体識別や行動分析だ。異常行動の早期発見、病気のまん延防止、水流停止や餌の供給過多のような養殖環境の異常を検知し、全滅を防ぐ方法の研究をする。

また、水中や水上の画像データや環境情報データなどを、IoT機器によってリアルタイムに収集および分析。さらに、水流のシミュレーションとCGで再現したチョウザメの筋骨格モデルによって、さまざまな仮想環境による個体の泳法の3DCGによるシミュレーションデータを使用する。なお、魚の骨格、筋肉などから生成するチョウザメの3DCGモデルは、従来のアニメーションのためのモデルとは異なり、魚生物学シミュレーションを可能にするリアルな筋骨格3DCGを再現する予定だ。

共同研究の流れ。画像はプレスリリースより

本共同研究によって低価格での実現方法を確立させるだけでなく、IoTやAIを用いた養殖方法の確立を目指すことで、水産分野における各種テクノロジーの可能性、そして実現性を検証していく。

実施期間は2020年2月1日から2023年1月31日までの3年間となっている。

>>ソフトバンク プレスリリース

増加する魚介類消費量を補うには養殖業の事業安定化が必要

水産資源における問題はチョウザメだけの話ではない。いま、世界では魚介類の消費量が増えている。天然資源の漁獲が増えれば、世界中の水産資源が枯渇し、生態系に大きな影響を与えるとされる。

以前、水産ベンチャーのウミトロンは宇宙航空研究開発機構(JAXA)と共同で、気候変動観測衛星「しきさい」の観測データの水産養殖の現場への活用を検証していると発表された。人工衛星データとAIやIoTと組み合わせ、赤潮など自然環境に左右されやすい水産養殖業の経営安定化を目指すという。

人工衛星から取得される広域データが全地球的に活用できるようになれば、赤潮対策のための体制構築が進んでいない地域にとっても、リスク低減に向けて有用だとされる。

農業者の平均年齢67歳、野菜を自動収穫するロボットで収益2倍に

高齢化と担い手の不足という危機を迎える農業。日本の農業者の平均年齢は67歳。

農作業の50%以上の時間は収穫と出荷作業に費やされている。そのなかでも、収穫作業を省力化・効率化すれば農業所得を向上させられるのではないか。

AGRIST株式会社(アグリスト)は1月31日にAIを活用した農産物の自動収穫ロボットを開発。今年1月からビニールハウスで運用を開始していると発表した。これは、収穫量の向上を実現し、農家が抱える課題を解決するロボットだそうだ。

農家の声から生まれた収穫ロボット

地元農家と共同開発したロボット

宮崎県児湯郡新富町の若手農家は、スマート農業の実践と収益拡大を目指し、月1回の勉強会「儲かる農業研究会」を開催している。その会員でもあり、JA児湯の理事を務めるピーマン農家・福山望氏とアグリストは、ピーマンの自動収穫ロボットを共同で開発し、2020年1月から福山氏の農場でロボットの運用を開始した。

農家と共同開発をするにあたり、従来の「地面を自走する方式の収穫ロボット」の課題について意見交換と議論を重ねた。

「地面を走って収穫を行う場合、圃場が平らでないためにロボットが転倒してしまったり、圃場にある機械や装置が邪魔になり移動ができなかったりする可能性がある。更に、従来のロボットアーム型の収穫機では、価格も高くなり、保守管理も大変になるのではないか。」

こうした農家からの声から生まれたのが今回発表された「吊り下げ式ロボット」だ。

宮崎県内の農業関係者30名が収穫ロボットを視察

アグリストの公式サイト(外部サイト)によれば、同社のロボットは「感覚的に農家さんが操作できるユーザーインターフェイスを実現します」とうたっている。ボタンひとつで動き出し、バッテリーの充電や再生停止も1クリックで可能。シンプルな構造にしたからこそ、農家に対して低価格でサービスを提供できる。

AIと画像認識技術については、宮崎県新富町の農家の協力をもとに膨大な野菜関連の写真を収集する。果実の認識精度を高めながら、ロボットの効率性をアップデートするそうだ。

将来的には、1反あたりの収穫量の20%以上改善を目指すという。また、ロボットで収集するデータを解析することで、病気の早期発見を実現していく。アグリストは、農業にイノベーションを起こし、生産者の収益を2倍以上に改善させ、農業所得の向上が目標だ。

>>AGRIST株式会社
>>プレスリリース(PR TIMES)

AIによって高糖度トマトを安定生産

アグリストは農作業における「収穫」を手助けするAI搭載ロボットを開発したが、農業におけるAIの活用は多岐にわたる。農業にAIを活用したことで、“より良い農作物”を作れるようになった事例がある。

株式会社Happy Qualityは2月5日、静岡大学との共同研究である、AI(人工知能)の判断に基づく灌水(かんすい)制御によって糖度トマトを高い可販果率での生産成功を発表した。

研究開発と実証実験の結果、AIの判断に基づいた灌水制御では平均糖度9.46の高糖度トマトを、バラつきを抑えて容易に栽培できることを示した。さらに、急な天候変化に追従した適切な灌水制御によって、従来の日射比例方式による灌水制御に比べ果実の裂果を大幅に減らし、高糖度トマトを高い可販果率(95%)で生産できることも確認している。

Happy Qualityが目指すのは、AIなどのテクノロジーを活用することにより高品質・高機能な農作物を誰でも安定的に栽培できる栽培技術の確立だ。同社の実験結果などは下記記事から確認してほしい。

【LINE×AI】LINEのAIサービスを徹底解説

2019年12月23日にヤフーと経営統合に関する最終合意を締結し、ヤフーと共に「AIテックカンパニーを目指す」と宣言しているLINE。LINEのAIサービスというとClovaなどが思い浮かびますが、実際はOCR、音声認識や音声合成など多様なサービスを提供しています。

この記事ではLINEがAIで取り組んでいること、LINEが目指す姿について解説します。

LINEのAIに関するこれまでの取り組み

LINEはこれまで主にBtoC向けにさまざまなサービスを提供してきました。

AIアシスタント「Clova」


出典:https://clova.line.me/clova-friends-series/clova-friends/

LINEは2017年10月より、AIアシスタント「Clova」の提供を開始しました。

Clovaは韓国のNO.1ポータルサイトでLINEの親会社である「NAVER」と共同開発され、音声認識自然言語処理の技術が使われています。話しかけることでコミュニケーションアプリ「LINE」でのメッセージの送受信や、「LINE MUSIC」で音楽再生などが可能です。

Clovaを搭載した製品には、スマートスピーカーであるClova FriendsやClova WAVEのほか、ディスプレイ付きでビデオ通話や動画視聴が可能なClova Deskや、走行中も声で操作できるカーナビアプリLINEカーナビなどがあります。

多種多様なチャットボット

LINEは、AIを搭載したさまざまなチャットボットを研究・開発しています。LINE上でのユーザーの問い合わせや予約、チケット検索などに自動で対応するチャットボットなどがあります。

ここでは、LINEのAIを活用したチャットボットの例として「LINEかんたんヘルプ」をご紹介します。

■ LINEかんたんヘルプ


Ledge.ai 編集部作成

お助けLINE公式アカウント「LINEかんたんヘルプ」では、LINEの機能で困ったとき簡単に解決方法を確認することができます。「アカウントの引継ぎ方法」など代表的な質問は、下部のタップメニューをタップすることで回答が表示されます。その他の質問は、LINEのチャットのようにキーボードで送信することで回答が表示されます。また、次の動作につながる質問の選択肢も表示され、選択肢をタップするだけで簡単に解決方法にたどり着くことができます。


また、LINEの提供するAIチャットボットとは異なりますが、LINEは、LINE公式アカウント、Messaging APIを他社に提供することで、多くの企業のAIチャットボットの提供を支えています。他社AIを利用した、LINEのチャットボットを紹介します。

■ 女子高生AI りんな


出典:https://www.rinna.jp/platform

マイクロソフトが開発し、LINE公式アカウントとして公開している対話型AI。タスク遂行ではなく会話を目的としており、話し相手になってくれます。犬の写真を送ると犬種を教えてくれたり、しりとりに付き合ってくれたりします。

■ ヤマト運輸


ヤマト運輸のLINE公式アカウントでは、「配達状況の確認」「再配達依頼」などが可能です。メニューの「再配達依頼」を押すと、送り状番号、お届け希望日、時間帯などが聞かれ、LINE内で荷物の再配達依頼を完了することができます。これまでの、電話やウェブサイトでの再配達依頼よりも、簡単に行うことができます。

ヤマト運輸のアカウントの登場は、消費者の負担だけでなく、日々大量の荷物の配送に追われている配達現場の社員にかかる負担を減らすことにも繋がっています。

その他これまでLINEが取り組んできたサービス

■ LINEショッピング

出典:https://linecorp.com/ja/pr/news/ja/2018/2241

「LINEショッピング」内の「ショッピングレンズ」は、写真や画像といった”ビジュアル”だけで理想の商品を探す事ができる機能。

その場で商品を撮影したりスマホに保存していた画像をアップロードすると、画像認識技術により、LINEショッピングで展開している6000万点以上のアイテムの中から近しい商品を検索することが可能です。

■ LINE CONOMI


「LINE CONOMI」は口コミと写真を簡単に投稿、検索ができるグルメレビューできるアプリです。

“店舗選びの煩雑さ”や“食べたいものを見つける難しさ”をAI技術によって解決し、本当に自分が行きたいお店・食べたいものと出会うことができます。

LINE独自のAIを使った文字認識技術(OCR)により、テキストを入力しなくても“レシートを撮影するだけ”で、店名やメニューを自動入力できるほか、位置情報の活用により料理写真をアップするだけで店舗情報が候補一覧として自動表示されるなど、ユーザーが簡単にグルメ記録を投稿することができる機能が充実しています。

「LINE BRAIN」で新たにBtoB事業に参入


出典:https://www.linebrain.ai/#strength

LINEは2019年、同社がこれまで培ってきたAI技術を外部企業などに展開するサービス「LINE BRAIN」を開始。2019年6月のLINE CONFERENCEで大々的に発表され、話題を呼びました。

LINEはこれまで社内でAI技術を活用してきており、社内で培った技術や知見を取り入れ、AI技術をBtoBで提供していきます。

LINE BRAINの強みは、日本語を含むアジア系言語に対応し、各国の文化に合わせた行動データ分析やカスタマイズが可能なこと。米国や中国との競合との差別化を図ります。

LINE BRAINが提供するサービス

LINE BRAINが提供するサービスは以下の7つ。

  • CHATBOT(チャットボット)
  • TEXT ANALYTICS(言語解析)
  • SPEECH TO TEXT(音声認識)
  • TEXT TO SPEECH(音声合成)
  • OCR(文字認識)
  • VISION(画像認識)
  • VIDEO ANALYTICS(画像・動画解析)

LINEが発表しているプロダクトロードマップによると、現在開発中のサービスは2020年にはSaaSとして一般に開放する予定です。


また、2020年1月22日より、「LINE BRAIN CHATBOT」、「LINE BRAIN OCR」のSaaSとしての提供を開始しました。

■ 顧客問い合わせや社内問い合わせ対応に活躍する「CHATBOT」

LINE BRAINのチャットボットは、最新の機械学習モデルを活用したサービスです。

自然言語処理機械学習・テキストマイニングなどのAI技術を適用し、自然な応答を実現。英語、中国語、韓国語、タイ語、インドネシア語に対応しています。

  • これまでのLINEサービス内での活用事例
    LINEアプリ(LINE公式アカウントでの問い合わせ対応、雑談など)
  • 今後の活用事例
    チャットボット上での予約や商品購入といったCRM連携、社内FAQ対応、チャットボット運営の省力・内製化

無料で使える「Trialプラン」や、⽉50,000 円の基本利⽤料で利⽤できる「Commercialプラン」など⽤途に応じて選べるプランがあります。

■ 煩雑な入力作業を助ける「OCR」

LINEの画像認識を活用したOCR。紙面等に記載された文字・文章をテキストデータへ変換します。文書の検出と認識に関する国際会議(ICDAR:2019/3/29時点)では4分野で認識精度世界No.1を獲得しました。湾曲して書かれた文字や傾いた文字、正面から撮影できなかった文字も認識可能です。OCRの機能はLINEのアプリ内でも利用することができます。

  • これまでのLINEサービス内での活用事例
    LINEアプリ(LINEのトーク画面上で画像からテキストを抜き出せる)、LINE CONOMI
  • 今後の活用事例
    伝票登録OCR、領収書OCR、身分証明書OCR、モバイルアプリ自動入力OCR、eKYC

斜めになった⽂字、歪んだ⽂字でも⾼い認識精度を誇る⽂字認識技術を無料で利用できる「Free プラン」をはじめ、読取枚数に応じたプランがあります。

LINE AiCall

LINE BRAINを象徴する開発プロジェクトとして「LINE CONFERENCE 2019(外部リンク)」において紹介されたのがProject「DUET」というAI自動応答システムです。

LINEの音声認識技術Speech to Text、チャットボット、Text to Speechの技術を組み合わせています。サービス名を「LINE AiCall(外部リンク)」とし、電話での新規予約受付とFAQ対応を、すべてAIが対応し、飲食店の電話応対の負担削減を目指します。2019年11月より「俺のGrill&Bakery 大手町」での実証実験を開始しています。現段階では実験は終了し、今後の展開を検討中とのことです。


出典:LINEプレスリリース

Googleが同様のサービス「Google Duplex」をすでに展開していますが、「LINE AiCall」はなめらかな日本語対応が強みです。

また、「LINE CONFERENCE 2019(外部リンク)」においてLINE CSMOの舛田 淳氏は、音声合成の難しさ、一般回線で音声を正しく認識する性能、曖昧な会話でも理解する対応力がポイントだと語りました。

LINE AiCallは、AIによる自動化で電話応対の時間が削減できることに加え、24時間の対応が可能になることで、営業時間外の機会損失を減らすことができます。

「何もかもに対応する万能なAI」ではなく、まずは「特定の課題解決に特化したAI」を目指すLINEにとって、LINE AiCallはその特徴の現れた代表例と言えるでしょう。

その他LINEの最新の取り組みについて

LINE BRAINのほかにもLINEが取り組んでいるサービスをご紹介します。

検索サービス事業に再参入。「LINE Search」

LINE Searchは、コミュニケーションサーチとコンテンツサーチを足し合わせた統合型の検索サービスです。2019年6月に発表しました。LINEの前身であるNHN Japanは、韓国の検索エンジン「NAVER」を日本で展開していましたが2013年に撤退した経験があるため、今回検索サービス事業へ再参入という形になります。

LINE Searchは「人」と「ロケーション」の2点の検索精度強化に注力しています。

  • 「人」軸
    「インフルエンサー検索」をリリースし、知りたい事柄に詳しい人をTwitterやInstagramで探すことを可能にしました。さまざまな分野の専門家を検索し、見つけて相談できる「LINE Ask ME」も2020年に提供予定です。
  • 「ロケーション」軸
    すでにリリースされているグルメレビューアプリ「LINE CONOMI」などのサービス展開を進める予定です。

LINEは今後、LINEの持つAI技術とLINE Searchをかけ合わせ、あらゆる情報をLINE上で検索できるようにするとしています。

トヨタと提携「LINEカーナビ」

LINEは2019年9月から、「LINEカーナビ」サービスを開始しました。トヨタと協業し、トヨタのカーナビエンジンとClovaのUXが融合したスマホアプリです。注目すべきは、LINEのAIアシスタント「Clova」が搭載されており、自動車の走行中も“声”でカーナビを操作できる点です。


出典:「LINE カーナビ」公式サイト

2019年11月15日に開催された「MOBILITY TRANSFORMATION CONFERENCE 2019(外部リンク)」で、Clova企画室室長の中村浩樹氏は次のように言いました。

――中村氏
「古くから、声によるナビ操作は普及を目指されていたが、音声認識の精度向上などによってやっと実現できるタイミングが来た」

音声によるカーナビ操作は、今後さらに需要が高まる見込みです。2019年12月1日から道路交通法が改正され、運転中にスマートフォンを持って通話をしたり、メールなどを確認したりする「ながら運転」が厳罰化。ハンズフリーで操作できるカーナビは、ながら運転厳罰化の追い風を受けそうです。

Clovaを搭載したLINEカーナビは、ナビとしてだけでなく、LINEメッセージのやり取りもできるなど、さまざまな活用も可能なため、アドバンテージは多いでしょう。

「LINE×AI」のこれから

LINEが今後AI事業で目指す「LINE×AI」のこれからについて解説します。

サービスの親和性を生かして「トータルでの体験」を目指す

これまで紹介してきたように、LINEは多くのサービスを提供しています。これらの強みは「それぞれのサービスの親和性が高い」ことにあります。

この高い親和性を生かして「LINEはトータルでの体験を目指す」と、「MOBILITY TRANSFORMATION CONFERENCE 2019(外部リンク)」で中村 浩樹氏は語りました。

カギとなるのは、「LINEカーナビ」「LINE Search」「LINE AiCall(LINE BRAIN Project『DUET』)」「LINE Pay」です。


Ledge.ai 編集部撮影

検索サービスの「LINE Search」で気になる飲食店を検索。飲食店の予約管理サービスの「LINE AiCall」で予約し「LINEカーナビ」で道案内。そしてLINE上で決済などが可能なキャッシュレスアプリ「LINE Pay」で支払う。こうした一連の体験をつくることをLINEは目指しています。

また、ヤフー(Zホールディングス)との経営統合も実現すれば、LINEの目指す「トータルでの体験」を後押ししそうです。ヤフーが持つサービスはLINE同様に豊富で、大きなシナジーを持つサービスも数多くあります。

それこそ、カーナビ事業ではヤフーも「Yahoo!カーナビ」を展開中です。また、キャッシュレス事業においても、ヤフーは「PayPay」という最大規模の事業を抱えます。両社のシナジーが生まれれば、今後様々なサービスが一層私たち生活に溶け込むことが予想されます。

GAFAからこぼれたニーズを拾っていく

今の世界の状況を見ると、AI分野ではアメリカではGAFA、中国ではBATHと呼ばれる企業群が圧倒的です。

そこでLINEの描く今後の戦略としてLINE BRAIN室 室長の砂金信一郎氏は「GAFAからこぼれたニーズを拾っていく」と語ります。

――砂金氏
「GAFAなど、外資系ベンダーによるジャパンパッシングがありますよね。海外のカンファレンスで新サービスが発表されても、日本に来るのは2,3年先とか。
しかし、日本企業の課題解決のカギはGAFAによるサービスのローカライズではありません。LINEは、GAFAが投資対効果が合わずに撤退した、たとえばマイナー言語などのニーズに集中します


Ledge.ai 編集部撮影

実際に、海外で新サービスが発表されても、日本語に対応するのは数年先ということが少なくありません。一方日本では海外に比べて、「キャラクターと雑談を楽しみたい」などのニーズが多くあるといいます。これらの「GAFAからこぼれ落ちたニーズ」を、LINEは積極的に汲み取ろうとしています。

「人に優しいAI」を提供する

また、LINEはLINE BRAINの発表時「人に優しいAI」を提供していくとしました。この真意について、砂金氏は「人々の生活に密着し、知らないうちに後ろから手を差し伸べるようなAI」であると語ります。

――砂金氏
「『人に優しいAI』とは、人の仕事を奪うのではなく、本来の業務(たとえば飲食店内での接客や調理といったお客様へのサービスなど)に集中できるような社会を実現するためのAI、という意図でそう呼んでいます。人々の生活に密着し、知らないうちに後ろから手を差し伸べるようなAIです。本当はすごい技術を使っているんだけど、自然に生活に溶け込んでいるような。そんなAIを目指しています」

コミュニケーションとAIで実現するLINEのこれから

これまで解説したように、数多くのサービスを生み出しつづけるLINEですが、LINEが生み出すこれらのすべてのサービスの軸は「コミュニケーション」にあります。

AI技術は、コミュニケーションの活躍の幅を大きく広げます。今後LINEはサービスにさらにAIを組み込み、より便利なサービスとして展開していくことで、より一層私たちの生活にあるコミュニケーションの場面に溶け込んでくることでしょう。ヤフーと共に「AIテックカンパニー」を目指すと宣言したLINEの今後の動向から、目が離せません。

「がん」を瞬時に判定するAI登場、正答率は病理専門医に迫るほど

ついに「がん」の病理診断もAIに任せる時代が到来しそうだ。

広島大学の有廣光司教授、加藤慶ならびにメドメイン株式会社の飯塚統、Fahdi Kanavati、Michael Rambeau、常木雅之(責任著者)による「胃・大腸における上皮性腫瘍の病理組織学的分類を可能にするAIモデルの開発」に関する論文がNature Publishing Group刊行の「Scientific Reports」より出版されたことが2月3日に明らかになった。

【論文タイトル】
(原文)Deep learning models for histopathological classification of gastric and colonic epithelial tumors(和訳:胃・大腸における上皮性腫瘍の病理組織学的分類を可能にするAIモデルの開発)
論文リンク:https://www.nature.com/articles/s41598-020-58467-9
DOI: 10.1038/s41598-020-58467-9
PubMed リンク:https://www.ncbi.nlm.nih.gov/pubmed/32001752

>>メドメイン株式会社

診断の効率化や労働負荷の減少など実用可能なレベルに到達

メドメインでは複数の医療機関との共同研究により、それぞれ4000例を超える胃・大腸の病理組織標本に対して標本単位のデジタルイメージ(whole slide image)を作成した。自社開発のアノテーションツールを用いた病理医による教師データを作成し、これらを深層学習させることによって、病理画像解析のAIモデルの開発に成功した。

開発には、スーパーコンピュータシステムが用いられ、試験データによる検証の結果、機械学習の精度の評価に用いられる指標「AUC」がいずれも0.96以上(1に近いほど判別能が高い)という、きわめて高い精度(病理専門医の正答率に肉薄した精度)を得るに至ったとのこと。

左図が胃、右図が大腸のAIモデルの精度の評価を示す

病理画像のAI解析による判定結果の精度は高く、病理組織標本レベルで判定結果が得られることからも、実際の病理診断の現場において、スクリーニングに使用することで診断の効率化・労働負荷の減少など、実用可能なレベルに到達している点を論文内で述べられている。

不足する病理医、求められる病理診断

「がん」は世界的な統計のなかでも病気死因の上位カテゴリーとされている。その種類のなかでも患者数や発症数から胃・大腸がんは主体を成しているそうだ。そのため、多くの医療機関でこれらのがんの診断をするための内視鏡を用いた微小生検材料の病理診断の検査数は非常に多く、また増加傾向にあるという。

ところが、診断をする「病理医」は国内外で慢性的に不足している。病理医がひとりで診断を担う医療機関も多く、労働負荷が非常に大きくなっている。そして、多くの医療現場では、他院や検査センターに病理診断を依頼している現状がある。

こういった状況から、患者に対してより効率的で迅速な病理診断を実現するワークフローの整備が望まれていた。病理組織学的判定のスクリーニングが可能になるAI開発には世界中の医療従事者から大きな期待が寄せられているそうだ。

メドメインでは、AIによる病理画像解析を医療の現場で円滑に使用できるように、病理画像のAI解析システム「PidPort」の正式なサービス開始を近日中に予定している。

PidPortは、Deep Learning/AIによる独自の画像処理技術によって超高精度で迅速な病理スクリーニングを可能にするほか、遠隔病理診断の機能も備える。すでに国内外の多数の大学や医療機関で試験運用と実証実験をしているとのこと。

マイクロソフトも医療AIへ取り組みはじめる

医療とAIの関係はより密接なものになりつつある。多くの企業がAIを使い医療の改善、向上を目指している。

マイクロソフトは米国時間1月29日に、世界中の人々と地域社会の健康に貢献する「AI for Health」を発表した。AI for HealthはAIによって研究者や研究組織を支援し、世界中の人々や地域社会の健康を向上することが目的のプログラムだ。

AI for Healthは、ヘルスケア分野におけるマイクロソフトの広範な活動を補完する慈善活動のひとつ。AI for Healthを通して、特定の非営利団体や大学などと、マイクロソフトの主要なデータサイエンティストとのコラボレーション、AIツールとクラウドコンピューティングへのアクセス、および助成金などのサポートを提供するという。

説明可能なAIとは? Googleの「Explainable AI」に触れながら解説

AIが注目されている理由のひとつであるディープラーニングには、モデルがブラックボックスになるという問題がある。そこで、医療業界や金融業界を筆頭に、「説明可能なAI」への注目が集まっている。今回は、そもそも説明可能なAIとは何か?という部分から、最近Googleが発表した説明可能なAIを実現するためのツールの長短まで、株式会社HACARUSのデータサイエンティストである宇佐見一平氏に解説してもらった。

こんにちは、HACARUSデータサイエンティストの宇佐見です。

「説明可能なAI」という言葉はご存知でしょうか。

説明可能なAIとは、米国のDARPAの研究が発端の概念で、モデルの予測が人間に理解可能であり、十分信頼に足る技術、またはそれに関する研究のことを指します。

たとえば医療業界のように、診断の理由を患者さんに説明しなけらばならない場合には、説明可能で解釈性の高いモデルが必要です。このような業界にもAIの導入が進み始めている近年、説明可能なAIの必要性も増してきています。

そんななか、2019年11月21日にGoogleも「Explainable AI(外部サイト)」というツールを発表しました。そこで、本稿ではそもそも説明可能なAIとは何なのかを概観した後、GoogleのExplainable AIに触れながら、Googleがどのように説明可能なAIを実現しようとしているのか見ていきたいと思います。

説明可能なAIとは

近年AIが注目されるようになった要因の一ひとつとして、ディープラーニングの隆盛が挙げられます。

ただし、ディープラーニングは非常に強力な一方、モデルがブラックボックスになってしまうという問題点があります。つまり、AIの予測結果がどのような計算過程を経て得られたものなのかわからないため、精度が高かったとしても、その予測の根拠がわからなくなってしまうのです。

Photo by LinkedIn Sales Navigator on Unsplash

とくにモデルのブラックボックス化が問題視される例としては、医療業界や金融業界などが挙げられます。医療業界では「なぜAIがそのような診断を下したのか」を患者さんに説明できなければ、診断にAIを採用することは困難です。また、AIが間違った判定を下した場合に、なぜ間違ったのかを検証することができません。

このような背景があり、説明可能なAIに注目が集まっています。実際、権威あるデータマイニングの学会として有名なKDDの昨年度の発表のひとつに、説明可能なAIをテーマにしたものがありました。また、GoogleのExplainable AIのみならず、富士通や日立も説明可能なAIに関するサービスを発表しています。

説明可能なAIを実現するための手法もさまざまなものが開発されています。たとえば入力の属性に注目した「LIME」「SHAP」「Integrated Gradient」、モデルが注目する概念をテストするような「TCAV」、個々の学習データの有無や、その摂動がモデルとその予測結果にどのように影響を与えるかを計るための「Influence Functions」などが挙げられます。

GoogleのExplainable AIでは「Feature Attribution」という値に注目して説明可能なAIを実現しようとしています。Feature Attributionsの詳細については後述します。

Googleが発表したツール「Explainable AI」

2019年11月21日にGoogleが発表したExplainable AI。これはGoogleが提供している「AutoML Tables」と「Cloud AI Platform」上の機械学習モデルに対して利用できるものです。

Googleの「Explainable AI」。サイトより編集部キャプチャ

Googleによれば、Explainable AIを用いると、どの特徴がモデルの予測結果にどれだけ貢献しているかを知ることができます。

使用する前には「Google Cloud Platform」のプロジェクトの作成とAPIの有効化、学習済みモデルを保存する「Google Cloud Strage」の準備が必要ですが、一度準備ができれば基本的にはどのようなモデルに対しても予測結果を評価することができるようになります。また、使用すること自体に特別な料金は発生しません。ただし、Cloud AI Platformの使用時間が増加することに伴って全体の使用料金が増加することはあります。

また、予測結果を評価することで、以下のように役立てることができます。

  • モデルのデバッグ
    モデルが明らかに異常な挙動をしているとき、たとえば不自然に精度が高すぎる場合を考えましょう。Explainable AIを用いてモデルが注目している部分を可視化すると、テスト対象がアノテーションされたような画像に対して予測していたので精度が高かった、というようなミスを発見することができます。

  • モデルの最適化
    モデルがどの特徴量を重視しているかを特定して、重要視されていない特徴を除くことで、予測精度を挙げられる可能性があります。

次章以降で、実際にGoogleのExplainable AIでモデルの予測結果評価に用いられているFeature Attributionについて説明していきたいと思います。

モデルの予測結果を評価する「Feature Attribution」

GoogleのExplainable AIでは、Feature Attributionという値によってモデルの予測結果を評価します。

Feature Attributionの計算方法には「Integrated Gradients」と「Sampled Shapley」があります。Feature AttributionはSharpley値という値を上記の手法を用いて計算したものになります。Shapley値とは、ある特徴量がどれだけモデルの予測に貢献したかを示す値になります。

Integarated Gradientsはbaseline(画像であれば画素値がすべて0の画像、テキストであればすべて0のembeddingなど)から入力までの勾配を積分することで得られます。なので、ニューラルネットのような微分可能なモデルや巨大な特徴量空間を持ったモデルに対して使用することが推奨されています。

Sampled Shapleyは真のShapley値の近似値になります。Sampled Shapleyは、アンサンブルツリーのような微分できないモデルに使用することが推奨されています。GoogleのExplainable AIの機能を用いることで、これらの値を計算することができます。

それでは、実際にExplainable AIのチュートリアルを実行してFeature Attributionを見ていきましょう。

Explainable AIの実行例

GoogleのExplainable AIにはチュートリアルが用意されており、Collaboratoryの形式で配布されているので、簡単に実行することができます。チュートリアルにはテーブルデータと画像データ用があります。

まず、テーブルデータ用のチュートリアルを実行します。データセットとして、ロンドンのレンタサイクルに関するデータとアメリカ海洋大気庁の気象データが用意されており、そのうちいくつかの変数を用いて、どれくらいの時間自転車が使用されたかを予測するモデルを作成することがこのチュートリアルの目的になります。その過程で、Feature Attributionを計算します。

下図がFeature Attributionを計算した結果になります。値の正負、大小によって、ある変数がモデルの予測に寄与しているか、していないかを評価することができます。

テーブルデータに対するFeatureAttributionの計算例

続いて、画像データに対するチュートリアルを実行してみます。用意されたデータセットは5種類の花の画像で、チュートリアル内容は花の画像の分類問題になります。予測モデルを作成したのち、画像に対してFeature Attributionを計算すると、予測対象の画像にモデルの予測にもっとも貢献した画素のトップ60%を表示することができます。

下の画像がFeature Attributionを画像に重ね合わせたもので、緑色に塗られた部分がこの画像をあるクラスと分類するのに貢献したトップ60%の画素ということになります。

画像に対するFeatureAttibutionの例

Explainable AIのメリット・デメリット

ここまででチュートリアルを実行し、Feature Attributionがどのように表現されるかを見てきました。そこで、簡単に私が感じたExplainable AIの主要な長短についてまとめたいと思います。

メリット:重要な特徴量を一見して評価することができる

ここまでチュートリアルで見てきたように、モデルの予測にどの特徴量が大きく寄与しているのかを可視化できるため、直感的にどの特徴量が重要なのかを一見して判断することができます。

テーブルデータであればどの特徴量がモデルの予測に寄与するかを見ることで特徴量選択に使えるかもしれませんし、画像データであればモデルが重要視した部分を見ることで、そのモデルが本当に意味のある部分に注目しているかどうかも確認できるかもしれません。

デメリット:Feature Attributionは必ずしもモデルの計算結果を反映するものではない

Integrated GradientsもSampled Shapleyもどちらもモデルの計算結果を近似して得られるものです。

なので、基本的にブラックボックスであるDNNなどを用いると、Feature Attributionはモデルの計算結果を反映しているとは限らず、またモデルがどのようにして計算しているかまではわかりません。

つまり、たとえば画像に対してFeature Attributionを用いてモデルが重要視した部分はわかりますが、なぜそこを重要視したのか、どのような計算をして重要視したのかまではわかりません。つまり、モデルは未だブラックボックスのままであるということです。

最後に

ここまでGoogleのExplainable AIについて述べてきました。

メリット・デメリットの項において書いたように、基本的にモデルにブラックボックスであるものを用いると、計算過程は未だブラックボックスであったり、Googleがドキュメントで“Limitations of AI Explanation”として述べているようにFeature Attributionはある特徴が予測結果にどれだけ影響を及ぼすかを表すのみで、モデルのふるまいを表すものでは無かったりといった問題はあります。

それでも、簡単に計算結果を近似値で評価できるのは非常に使い勝手がいいと思います。上記の点は「問題」であるとみなすよりも、そのような「特徴」を持った機能であるとして、GoogleのExplainable AIをうまく使っていければいいのではないでしょうか。

(執筆・宇佐見一平、編集・高島圭介)

画像認識とは|歴史・仕組み・最新事例まで徹底解説

画像認識

スマホの顔認証や、生産工場での不良品自動検知システムなど、我々の生活に普及した画像認識の技術。ここ近年で急激に発展した印象を受けるが、実際はとても長い間研究されてきた分野である。

今回は改めて画像認識について、独自技術「人工脳SOINN」を開発するSOINN株式会社の長谷川修氏と一緒に仕組み、歴史やこれからの発展について解説していく。


長谷川 修 氏
元東京工業大学 工学院システム制御系 システム制御コース准教授。「工学研究は社会の役に立つために行うもの」との信念に基づき、2020年現在SOINN株式会社のCEOとして独自技術「人工脳SOINN」を研究開発している。

画像認識(Image Recognition)とは

画像認識とは、画像のなかに一体何が写っているのか、コンピューターや機械などが識別する技術。画像から色や形といった特徴を読み取り、その特徴をさまざまな学習機に入れて新たな画像を認識できるようにしたパターン認識技術のひとつ。

写真を検索にかける画像検索や、ディープラーニングとの併用によって複雑な特徴を捉えることが可能になり、猫や犬といった生物の画像を認識する技術など、現在さまざまな分野で活用が進んでいる。

たとえば人間の写真であれば、眉毛がふたつ、目がふたつ、鼻がひとつ、口がひとつあるという情報から顔を認識する。スマホやカメラの顔認識技術がまさに画像認識技術を応用したものである。

我々人間にとって物体を認識することは、成長する段階でごく自然に育まれていく。

Photo by Borna Bevanda on Unsplash

例として猫を挙げると、

  • 毛がふわふわしていて
  • 明るい・暗い場所によって瞳孔の形が変わる
  • ニャーと鳴く生き物

という生物は「猫である」と人間は経験から学習する。仮に体毛のない種類だとしても、ニャーと鳴くなどの雰囲気でこの生物は猫だと認識するだろう。

しかし、機械でこの認識を再現するとなると大変難しく、今まで多くの研究がなされてきた。そして近年、コンピューターやインターネットの普及でようやく精度が上がってきた。

画像認識の歴史

画像認識の研究自体はコンピューターが出てきた40年〜50年も前を起源としている。そのなかで長谷川氏が研究を通して見てきたのは、いかに人間を超えられないか思い知らされる歴史だったという。

――長谷川
「顔認識も10年くらい前はまだまだ研究段階。最近ようやく人間の顔を判断可能になり、犬や猫の顔も認識できるようになりました。

絵で描かれた犬や猫は人間の子供だと容易に認識できます。これは“わんわん”、これは“にゃんにゃん”というふうに理解できますよね。しかし、研究でやろうとするとこの認識がなかなかできなかったのです」

画像認識技術が一気に進んだ背景にはどのような理由があるのか。

――長谷川
もとを辿ると日本人の福島邦彦さんが1979年に発表した『ネオコグニトロン』という神経回路モデルが、今の画像認識ブームを牽引しているCNN(Convolutional Neural Network)そのものです。

彼はNHK技研で研究した後、大阪大学などで教鞭をとっていて、そのときに彼の講演を学会で聴講した記憶があります。そのころから画像をたくさん並べて、畳み込みやプーリングの処理を行なっていた人です」

ネオコグニトロンの回路構造。Copyright © 福島邦彦 2006, All Rights Reserved.

福島 邦彦 氏
脳における情報処理機構の解明のために、神経回路モデルを仲介とする合成的手法を用いて研究を進めている。 とくに、視覚系における情報処理や記憶・学習・自己組織化の機構の神経回路モデルの構成などに興味を持つ。
「ネオコグニトロン」(学習によって視覚パターン認識能力を獲得していく deep CNN,1979年に発表)や、「選択的注意機構のモデル」(特定の視覚対象に注意を向けてその対象物を認識し、ほかの物体から切り出してくる機能を持った神経回路モデル)などを提唱した。
プロフィール詳細

2019年にコンピューター界のノーベル賞と言われる「チューリング賞」を受賞したFacebook AIラボ所長のヤン・ルカン氏も過去にNatureへ投稿した論文で福島氏の論文を引用している。

――長谷川
「近年の第三次AIブームは計算マシンの能力が上がり、インターネットでビッグデータを得られるようになったため、同じ手法でも大きな結果を残せるようになったのがブームになった理由のひとつでしょう。

以前国内ではあまり相手にされなかったのに、海外企業がニューラルネットワーク、ディープラーニングと言い始めると、みんなわっと飛びつくようになったのは非常に複雑な心境です」

もしあの時、日本が動いていれば、と思う人も多いかもしれない。

2012年の大規模画像認識協議会「ILSVRC」でトロント大学のチームがはじめてディープラーニングを画像認識に使って圧勝したことにより、世界的に改めてディープラーニングが使える段階に入ったと再認識されたのだろう。

昨今の画像認識ブームとディープラーニングが密接な関係を持っているのは確実だ。

画像認識の仕組み

実際に画像認識は、どのような仕組みで動いているのか。

――長谷川
「前準備として、コンピューターで画像を適切な形に処理し、ディープラーニングを用いた識別機に画像を入れて学習させます。そして学習が完了した識別機に新たな画像を入力すると、これは何%の確率で何であるという結果を画像認識が出してくれます」

今我々が見ているスクリーンは、小さなピクセルの集合体である。デジタル画像にはラスター画像とベクター画像の2種類が存在し、多くの写真はラスター画像というピクセルの集合体で構成されているため、その分解から始めるのだ。料理をするときに野菜を洗い、細かく切る行動と似ている。

下の画像を参考にして説明していく。

Photo by FineGraphics on 写真AC

画像を拡大していくと、小さい四角(ピクセル)が見えてくる。よくテレビやカメラなどの解像度を表現する際、「〇〇万画素」という表現をするが、それは単位面積あたりに何個ピクセルがあるかを説明している。ピクセルが多ければ多いほど、滑らかで綺麗な画像になるのだ。

  • 画像処理
    コンピューターが画像を認識しやすくするために、特定の処理を行う。主に画像のノイズや歪みを取り除き、明るさや色彩を調整、物体の輪郭を強調して、物体の領域を切り出す。

  • 画像から情報を抽出
    画像からピクセル単位で特徴を抽出。ピクセルは画像を構成する最小要素であり、色や明るさなど、さまざまな情報がついている。これら情報のパターンを確認することで、何が画像に写っているのか認識をする。

  • 特定物体認識
    事前に「ラベル」「大量の画像データ」を学習させ、そのなかに識別させたい画像を入力することで何が画像に写っているのかを特定する。

そしてここから、ディープラーニングを構成しているニューラルネットワークの一種、畳み込みニューラルネットワーク(CNN)が重要となってくる

ディープラーニングを用いた画像認識モデル

CNN(Convolutional Neural Network)


今までは、特定物体認識の部分で、人間が主観に基づいたラベル付けをしていた。それに比べて、CNNは人間でもわからない特徴量を導き出して学習していく。これによって大幅に識別率が向上し、昨今の画像認識ブームへと繋がった。

音声、数字などのデータは、ランダムな中からどのデータを取るか設定する必要がある、ゆえに今までのニューラルネットワークでは分類までに多くの時間を要した。それに比べて画像などの空間的データは、限られた空間内での隣接性を利用できる。

画像のなかでは、あるピクセルと遠いところに位置しているピクセルが影響することは少ない。その一方で空間では近くにあるものほど影響を受けるため、画像も近くにあるピクセルから影響を受ける。この性質を使い、パラメーターの数を少なくしたのがCNNである

Ledge編集部で作成

CNNでは、入力に近い側から順番に簡単な特徴量が学習され、それが組み合わされることによってより複雑な特徴量が学習される。主な処理として、「畳み込み(Convolution)」と「プーリング(Pooling)」がある

  • 畳み込み(Convolution)
    たくさん画像を見せていくと、「この画像にはこういう特徴がある」ということを学習していく。画像中から切り出された範囲に、特定の関数を重ね合わせることで特徴を表すマップを生成する作業。

  • プーリング(Pooling)
    プールするという英語が、水たまりなどを意味する。特徴のなかから、より優先して特徴を選んでひとまとめに絞り込み、そのなかから一番値の大きいものを選んでいく手法。

参考文献:AI白書 2019

CNNは畳み込みとプーリングを交互に行うことで構成されている技術であり、画像認識以外にも物体検出、クラス分類、物体セグメンテーションや画像キャプション生成などさまざまなところで中心的に用いられている。

いくつかの過程を経て、最終的になにがどのくらいの確率で画像に写っているのかを出力してくれる。

この結果を応用して、カメラの顔認証や画像検索など、さまざまなシステムへ実装されていくのだ。

画像認識ライブラリ

実際に画像認識の技術を導入したいと思ったときに使えるライブラリを紹介しよう。どのライブラリが一番優れているというのはなく、使う目的や状況に応じて選択するのが良いだろう。

画像認識に使える主要なライブラリは以下の通り。

TensorFlow

Copyright © TensorFlow, All Rights Reserved.

Googleが開発した機械学習用のオープンソースソフトウェアライブラリ。
顔認識・音声認識・自動運転など多方面で実装されている。

OpenCV

Copyright © OvenCV, All Rights Reserved.

Intelが開発したオープンソースコンピュータービジョン向けライブラリ。
画像処理・構造解析・機械学習などに実装可能。

PyTorch

Copyright © PyTorch, All Rights Reserved.

FacebookのAI Research lab(FAIR)が開発した機械学習用のオープンソースソフトウェアライブラリ。Pythonにおける数値計算を効率化する拡張モジュールであるNumpyと操作方法が似ており、近年人気が上昇している。Caffe2が併合、Chainerの開発元PFNが研究開発基盤をPyTorchへ移行すると発表した。

画像認識API

加えて、企業などがすぐ使えるサービスとして用意されているAPIも紹介する。

Watson APIs「Watson Visual Recognition

Copyright © IBM Watson, All Rights Reserved.

IBMが開発したAI「Watson」の提供する画像認識API。既に画像学習が済んでいるため、さまざまな用途で利用可能。もちろん機械学習で独自の学習をさせられる。基本有料だが、「ライト」表記のあるAPIは無料で利用可能。

AWS「Amazon Rekognition

Copyright © AWS, All Rights Reserved.

Amazon Web Serviceが提供する画像認識API。コンピュータビジョン向けクラウドベースSaaS。機械学習の専門知識は必要とせず、データを提供するだけでタグ付けなどを自動で処理してくれる。

Azure「Computer Vision API

Copyright © Microsoft Azure, All Rights Reserved.

MicrosoftのAzure Cognitive Serviceが提供する画像認識API。画像を認識した後の特徴抽出をしてくれる機能が多数ある。

画像認識の活用事例

ここからは、画像認識に関する活用事例をまとめていく。

製造業の事例

製造業にAIを導入する際のリアルタイム性・セキュリティー性問題をエッジAIで解消。また、長期的運用を視野に入れた顧客企業向けのデータサイエンティスト育成事業も手掛ける。ALBERTとマクニカの製造業AI導入に関する対談。

Canonの事例

画像認識AIで数千人もの人数を数秒でカウントできる映像解析技術をキヤノンが開発。今までの映像解析技術は人口密集環境における人数カウントが困難だったが、セキュリティー・マーケティングに応用できるとして付加価値創造を目指す。

自動運転の事例

埼玉工業大学がキャンパスと最寄駅を自動運転のスクールバスで繋げる計画を始動。バス車内のディスプレーでは、ライダーやカメラによる画像データをディープラーニングによりリアルタイムで解析。AIによる自動制御の仕組みがわかる各種情報などが表示され、学生は通学時にAIを体験的に学習できる。

無人レジの事例

AIによる無人レジの動き、Amazon GoやJR東日本とサインポストが協業のAI無人決済システム「スーパーワンダーレジ」を始め、国内外で動きが活発になっている。記事では、国内・海外の無人レジの事例を、仕組みや現状を交えて紹介する。

パン画像認識レジの事例

全国300店舗で利用されているAIレジ「ベーカリースキャン」開発元である、株式会社ブレインの原 進之介執行役員に開発までの道のりを聞く。ディープラーニングだけがAIではない、役に立つ、夢のある製品の作り方とは。

技術継承の事例

高齢化と後継者不足が課題となっている養蚕業にAIを導入、プログラミング未経験者でも簡単に活用ができるNeural Network Consoleで技術の継承に挑む。

テレビ業界の事例

日テレで2019年7月21日の地上波で放送された番組「NNN参院選特番 ZERO選挙2019」と「日テレNEWS24×参議院選挙2019」。その裏で、AIの顔認識技術を使った実験が行われた。映像内の人物と名前の間違いによる誤報を防止するための、確認作業の工数を大きく削減させたという。

ヘルスケアの事例

いつ、どこで、なにを、どれくらい食べたのか?何時間寝たのか?運動時間は?というような手間のかかる入力作業が、ヘルスケアアプリのユーザー離脱要因となっている。この課題を解決する方法を、AIを用いて新時代のUI・UX体験を開発するFiNC Technologies 代表取締役CTO 南野充則氏に聞いた。

農業の事例

農業における就業人口の減少と高齢化に対する省力化を進めるべく、ドローンで上空からキャベツを撮影し、膨大な量の画像をつなぎ合わせてAIで解析。将来的にはキャベツの育成状況から収量の予測を目指すプロジェクトが発足。

人工脳SOINNという手法

これまでディープラーニングを主流とした画像認識を紹介してきたが、ディープラーニング以外の方法で画像認識技術を実装する方法も存在する

それが長谷川氏が開発している、人工脳SOINNだ。人工知能と人工脳、一見違いがないように思えるが、使っている技術から違うのだという。

人工脳とは

人工脳はAIを育成するとき、競合学習法を主なベースとしている。

競合学習法はニューロンがはじめにふたつだけあり、あとは与えられたデータによって自分で成長していく。一方、ディープラーニングは誤差逆伝播法をベースにしており、誤差逆伝播法はニューロンをいくつもの層にして並べ、膨大な数のデータから特徴を厳選して精度を高める。

――長谷川
「ディープラーニングは最初に器を決めて、データを入れる。大きすぎたり、小さすぎたり、どこが最適か見極めるのも大変で、後でデータを入れたくなったときも再度構造を変えて計算し直したりするのでいろいろ制約があります。

その部分を柔軟に解決する方法として人工脳を開発しています。以前はあまり理解されなかったのですが、ディープラーニングのブームも相まって徐々に有用性が理解され使っていただけるようになってきました」

ディープラーニングがビッグデータを用いて学習される教師あり学習、人工脳が人間のように少ないデータから自分で特徴を学習していく教師なし学習と捉えると分かりやすいかもしれない。

認識させたい対象の画像を取り込み、CPUだけで教師データを覚えさせれば、活用が可能になる

――長谷川
「AIに学習させる際、不良品の画像を集めて欲しいというと、多くのクライアントは『それほど数がない』と言います。不良品の画像は出したくないというクライアントもいます。

そこで、通常大量にあるOK品の画像のみで学習させ、OK品と違いのある画像があれば、それを不良品の候補として取り出す学習器を作りました。
候補画像は現場でベテランに確認いただき、確かに不良品となれば、それを不良品画像としてその場で追加学習できるようにしていきました。

現場のベテランは、AIにとって最良の先生です。ベテランが新人を教育されるように、日常業務の延長に近い形でAIに教示頂けるよう、機械学習プロセスやUIなども工夫しています。

ベテランが現場のPCで、AI出力の確認や修正・再学習ができるようにすることもよくあります。これができると、クライアントは社内で、自らAIを育てられ、育ったAIはそのまま管理下におけるなどメリットが多く、とても喜んでいただけます」

SOINNの活用例

  • 地下の異常検知
    地下にあるインフラの形を作業車で移動しながら専用のレーダーで調べ、画像で出力された結果を人間が判断し異常を探す。ベテランでも1日10kmが限界だったが、人工脳を導入した結果1時間に200km見られるようになった。AIが示した異常個所だけを人間が再チェックするため、効率が大幅に向上した。今では多くの道路点検AIに人工脳が導入されている。

  • 家庭ゴミ焼却発電所
    家庭からでたゴミを燃やしてその蒸気で発電する廃棄物発電。無駄なく発電するためには、天気やゴミの量をもとにその日の焼却調節、最適化していた。しかし、ベテランが経験をもとに行なっており、人材が不足していた。そこで人工脳がまずベテランの知識を学び、最適化して導入していく。ベテランが行う同じレベルの燃焼効率を24時間連続で実現するのが目標。今現在テスト運用が始まっており、実用間近だ。

人間ができない作業(24時間作業、長時間のチェック)をAIが代替する代わりに、最後の重要なチェックなどを人間がすることで効率的に精度の高い仕事ができるようになるという。

企業は持っているデータによって、ディープラーニングを使うのか人工脳を使うのか選定した方が良いであろう。

――長谷川
今後は災害予測、洪水予測や避難誘導にも活用していきたい。業態関係なく、SOINNを持っていくだけでデータを学習し専用AIを各企業で育てられるようになるのが目標です

画像認識の今後

Photo by Rico Reutimann on Unsplash

――長谷川
「わからないことを『ググる』と言いますが、今後はそれがさらに進み、いろいろなものにAIが搭載され、ググらなくても教えてくれたり、自分に代わって機器や装置を操作してくれるようになるでしょう。

誰もが、自分のスマホで自分専用AIを育てる時代はそう遠くはないはずです。スマホのような個人端末は、個人情報の宝庫です。預金残高や健康診断の結果といったプライバシー情報に、自分でアクセスすることは何の問題もありません。同じように、自分専用のAIにだけは、アクセスを認めるのです。

プライバシーを守りつつ自分の「すべて」を学習し、自分のために働いてくれる自分専用AIは、国民的アニメのネコ型ロボットのように、無くてはならぬ相棒になるでしょう。近年発展の目覚ましい画像認識技術も、そうした世界の実現に必須の要素技術であり、さらに進歩して行くでしょう」

今後は画像認識を活用した技術で、便利な世界がやってくるのは必然であり、CES2020で発表されたToyota Woven Cityプロジェクトなど、新時代が楽しみなのは間違いない。

だからこそ、画像認識やAIが当たり前になった世界で何が必要とされるのか見極めることが、次の時代を生きるヒントになるのかもしれない。

進研ゼミでもAIで学習、中学講座にLINEの「Clova」採用

画像は「進研ゼミ 中学講座」公式サイトより

学校や学習塾などで、AIを活用する事例が増えつつある。2020年度からプログラミング教育の必修化にともなってAI自体の授業を実施する例もあるが、個々人の学習進捗に合わせた「アダプティブラーニング」などにAIが活用されることが増えつつある。

株式会社ベネッセコーポレーションは2月10日に、同社の通信講座「進研ゼミ中学講座」の2020年4月号から個別対応を強化すると発表した。具体的には、専用タブレットで学習するハイブリッドスタイルコースをリニューアル。専用タブレットにLINE株式会社のAIアシスタント「Clova」を搭載し、「AI学習アシスタント」として勉強中の疑問解消や学習法アドバイスをしていく。

>>ベネッセコーポレーション プレスリリース
>>LINE Clova公式ブログ

中学生ならではの学習環境とニーズに合わせる

進研ゼミの調査によれば、「部活で学習時間がとれない」「苦手な教科を中心に勉強したい」など、子どもの学習環境とニーズはさまざまだそうだ。これらのニーズに応じた学習アドバイスが可能な専用スキルをLINEはClovaで初めて開発した。

たとえば「学校の部活が忙しすぎる」と話しかけると、目標学習数の調整を提案し、継続的な勉強ができるようにアドバイスする。すべてのレッスンを消化するのではなく、一人ひとりの勉強意欲に沿った学習サポートを提案していくそうだ。

また、Clovaならではの話しかけることによる検索機能を使えるのも魅力だ。

「東京にはどんな高校があるの?」「入試問題ってどんな感じなの?」とタブレットに話しかけると、これらの疑問を解決できる進研ゼミ内の高校入試情報サイトへ遷移するそうだ。高校の偏差値や入試の傾向もわかるという。

さらに、中学生活を充実させられそうな「LINE MUSIC」との連携機能もある。友達間で流行している音楽について「〇〇をかけて」と話すと、LINE MUSICに登録されている曲のなかから音楽を楽しめるそうだ。

もちろん、知らない単語の意味を調べたり、英語の翻訳が可能だったりと、勉強に役立つ機能も使える。

月々の受講費は中1が6980円、中2が7190円、中3が7980円。6ヵ月、12ヵ月と一括払いを選択するとそれぞれの価格は割り引かれる。

AI英会話アプリで英語外部試験合格率が約10%向上

学習にAIを活用する事例はいくつかあるが、英語という科目に絞ればジョイズ株式会社が今年1月に発表したリリースは“いい成果”を残している。それは、同社の英会話学習アプリケーション「TerraTalk(テラトーク)」を導入している松蔭中学校・高等学校で、英語外部試験合格率が導入前後で10%向上したというのだ。

導入した松蔭中学校・高等学校(兵庫県神戸市)では、生徒約600人に対して新出文法の定着を図るための発話・音読練習、外部検定試験の面接対策として、授業や宿題で活用。その結果、テラトーク導入前に比べ、外部検定試験の合格率が約10%向上した。

テラトークは、AIとの英会話を通じてさまざまな場面での実践的な英語の習得を可能にする英会話アプリ。AIが発音や表現の出来を診断し、「語彙」「発音」「流暢さ」「文法」の項目で英語力を総合的に評価する。つまりは、定量的な評価指標が実装されているため、指導が効果的かつ効率的にできるようになっているそうだ。

マイクロソフトが非営利団体などを支援する医療向けAI事業を発表、規模は5年で4000万ドル

マイクロソフトは米国時間1月29日に、世界中の人々と地域社会の健康に貢献する「AI for Health」を発表した。AI for HealthはAIによって研究者や研究組織を支援し、世界中の人々や地域社会の健康を向上することが目的のプログラムだ。

この発表は、マイクロソフト内のブログ(外部サイト)で公開されている。

世界中の人々や地域社会の健康向上が目的

AI for Healthは、ヘルスケア分野におけるマイクロソフトの広範な活動を補完する慈善活動のひとつ。AI for Healthを通して、特定の非営利団体や大学などと、マイクロソフトの主要なデータサイエンティストとのコラボレーション、AIツールとクラウドコンピューティングへのアクセス、および助成金などのサポートを提供するという。

注力するのは次の3つの分野。

  • 発見の探求: 疾病の予防・診断・治療を推進する医学研究を加速する
  • 世界的な医療に関する知見: 世界規模の健康危機から保護するために、死亡率と長寿に関する共通の理解を深める
  • 健康の公平性: 健康状態の不平等を減らし、人々が十分なケアが受けられるようにアクセスを改善する

このプログラムは堅固なプライバシー、セキュリティ、倫理の基盤に基づいており、重要な医療の課題に取り組む専門家との協業によって遂行されるとのことだ。なお、規模は5年間で4000万ドルとされている。

ちなみに、AI for Healthは、「Microsoft AI for Good」の5番目のプログラムだ。AI for Goodは、先進的テクノロジーにより、研究者、非営利団体、企業による、今日の社会が直面する重要課題の解決策の開発を支援する1億6500万ドル規模の取り組みだ。

医療関係におけるAI人材不足に悩まされる

マイクロソフトは、医療の課題にはAIが重要な役割を果たせる領域があると考えている。それこそ、営利目的の医療産業から軽視されていた領域において新たなソリューションの開発の加速と拡大を支援することは同社が進むべき道である、と発表内容に記されていた。

同発表では、テクノロジーによって医療の改善を見込めるとしている。

たとえば、糖尿病網膜症のスクリーニングを効率化の可能性。4億6300万人の人々が直面する課題だが、世界には眼科医が21万人しかおらず、そのリーチの拡大を支援する必要があるとされる。また、乳幼児突然死症候群 (SIDS) のケースでは、影響を受ける人口を考慮すると、営利目的企業では十分な研究投資が困難だったものの、テクノロジーによる連鎖効果によって乳幼児の全体的死亡率を低下できる可能性があるという。

これらのテクノロジーの価値を最大限に引き出すには、医療専門家を支援してくれる技術専門家との連携が必要だ。しかし、AIを専門とする職に就いている人は、過半数がテクノロジー業界で働いている。そのため、医療関連組織や非営利団体で働く者は5%以下だそうだ。世界中の医療関係の研究者は、AI関連の人材不足に悩まされている。

AI for Healthは他組織との協業により遂行されている

先にも記載しているように、AI for Healthは医療上の発見、健康に関する洞察の獲得、世界の医療の不平等の解消を目指している。マイクロソフトの業界最高レベルのAIツールと技術専門知識を活用し、他組織との協業によって遂行されているようだ。同ブログでは、現在進行中のプロジェクトが明かされた。

  • Seattle Children’s Research Instituteとの協業により、乳幼児突然死症候群 (SIDS) の原因と診断に関する研究を進めています。
  • Novartis Foundation との協業により、ハンセン病の伝染を防ぎ、根絶する取り組みを加速しています。
    失明を防ぐための初期診療に活用できる、糖尿病網膜症の総合診断ソフトウェアを Intelligent Retinal Imaging Systems (IRIS) と共同開発し、展開しています。
  • 組織横断型のデータアクセスによって癌の防止と治療を加速するブレークスルーを Fred Hutchinson Cancer Research Center と Cascadia Data Discovery Initiative と共同研究しています。
  • マイクロソフトブログより転載)

進む医療でのAI活用、大腸ポリープ検出にも

いま、医療分野におけるAI活用は日々進んでいる。

サイバネットシステム株式会社は1月29日、人工知能(AI)を用いて大腸内視鏡診断におけるポリープなどの病変の検出を支援するソフトウェア「EndoBRAIN-EYE(エンドブレインアイ)」について、「医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(医薬品医療機器等法)」に基づき、クラスII・管理医療機器として承認の取得を発表した。

大腸内視鏡で撮影された内視鏡画像をAIが解析し、ポリープなどを検出すると警告を発し、医師による病変の発見を補助するソフトウェア。臨床性能試験では感度95%、特異度89%の精度で病変の検出が可能で、内視鏡医の支援に足る十分な精度を達成した。

内視鏡検査に携わる医療従事者の負担を軽減させ、ポリープなどの検出率を更に高めることも狙っている。

ニューラルネットワークとは|AI・人工知能・仕組み・歴史・学習手法・活用事例

近年、新たな技術革新として話題に上がるAI(人工知能)を支えている技術がニューラルネットワークです。

本稿では、AIで「魅力」の予測や向上を図る「魅力工学」を研究し、さまざまな企業と共同研究を行っている、東京大学大学院情報理工学系研究科の山崎俊彦准教授監修のもと、ニューラルネットワークについて詳しく解説します。

山崎俊彦氏
東京大学工学系研究科電子工学専攻修了。工学博士。 現在、東京大学大学院情報理工学系研究科電子情報学専攻准教授。 2011~2013年まで米国・コーネル大学 Visiting Scientist。 ビッグ・マルチメディア・データを用いた魅力工学の研究に従事。

ニューラルネットワークとは?


Photo by Ahmed Gad on Pexels

ニューラルネットワークとは、脳の神経回路の一部を模した数理モデル、または、パーセプトロンを複数組み合わせたものの総称です。

ニューラルネットワークの歴史


ニューラルネットワークの歴史は1940年代までさかのぼります。

1943年、人間の脳を模したモデルが提唱され始めました。なかでも、1957年に、米国の心理学者フランク・ローゼンブラット氏が考案した「パーセプトロン」(後述)は、人間の視覚や脳の機能を模したニューラルネットワークとして注目を集め、1回目のAIブームとなりました。

しかし、1960年代に、マービン・ミンスキー氏が「*線形分離不可能な問題を学習できない」弱点を指摘。またその後、冷戦下での安全保障上の要請から人工知能による機械翻訳を推進していた米国政府が機械翻訳は当分成果がある見込みはないと判断し、研究費用を打ち切りました(ALPACレポート)。これにより、人工知能への失望感が広がり急速に勢いを失い、AI冬の時代を迎えます。

そして1986年、米国の心理学者デビット・ラメルハートらにより「誤差逆伝播法」が開発され、2回目のブームが起きます。誤差逆伝播法では、パーセプトロンを発展させたマルチレイヤーパーセプトロン(後述)が用いられ、より複雑な学習をこなすことが可能になりました。

しかし、インターネット登場以前の当時は、機械学習に利用可能なデータが少なかったため、**多層ニューラルネットワークの学習精度がなかなか向上せず、また学習そのものも安定しなかったためブームはまた下火に向かいました。

その後、2006年にトロント大学のヒントン教授らが開発した***「オートエンコーダ」という技術により、ニューラルネットワーク自身が特徴を捉えることが可能になりました。彼らは、畳み込みニューラルネットワーク (Convolutional Neural Networks, CNNs)を用いて2012年にILSVRCという画像認識コンテストで2位以下に圧倒的な差をつけて1位を取ったほか、同年にMerck Molecular Activity Challengeという化合物の活性予測精度を競うコンテストでも優勝。これは、化学の知識を全く持たないグループがニューラルネットワークを使っただけでほかのグループを打ち負かしたと話題になりました。

この技術と多層ニューラルネットワークを用いた学習方法は「ディープラーニング」と呼ばれ、3回目のAIブームのブレイクスルーとなり、現在に至っています。


*ふたつの集合が二次元平面上にあるとき、それらの集合を一本の直線では分離できない場合(上図)
**「入力層」「隠れ層(中間層)」「出力層」で構成されるニューラルネットワーク
***ニューラルネットワークの出力層の値が入力層と同じになるように、重みのパラメータを調整する手法。途中の層で次元数を落とす処理が入るため、入力の値を再現するのに本質的な情報を残したり、逆にノイズを除去したりする働きがあると言われている。

機械学習やディープラーニングとの違い・関係性

ニューラルネットワークとあわせて耳にすることが多い単語が「ディープラーニング」や「機械学習」です。混同されたり誤解されやすい、両者の違いについて解説します。

機械学習とは?

機械学習とは、コンピューターが大量のデータを学習し、分類や予測などのタスクを遂行するアルゴリズムやモデルを自動的に構築する技術です。

機械学習を機能させる技術・アルゴリズムとして、ニューラルネットワーク以外にも、

  • ニアレストネイバー法
  • 決定木
  • ランダムフォレスト
  • サポートベクターマシン

など、さまざまな手法が存在します。

ディープラーニングとは?

ディープラーニングとは、ニューラルネットワークを多層に結合して表現・学習能力を高めた機械学習の一手法です。

単純に多層にするだけでは、表現力不足や過学習などの問題がありましたが、Dropout法(後述)やReLU(後述)など、数々の工夫とビッグデータの助けにより、それらの問題が解決されました。

現在、ニューラルネットワークのアルゴリズムとしてもっともよく用いられている手法です。

ニューラルネットワークの仕組み

Photo by Gerd Altmann on Pixabay

ニューラルネットワークは、どのような仕組みで動いているのでしょうか。ここでは、過去3回のAIブームで、それぞれ用いられてきたニューラルネットワークを順番に解説します。

パーセプトロン 

1回目のブームをけん引したのが「パーセプトロン」という技術です。

まず、入力層にデータを入力し、そのデータを認識をするための指標である*特徴量を入力します。その入力に対し、神経細胞間の接続強度に相当する重み w1 w2‥を掛けたものを、出力層のニューロンに入力します。出力層のニューロンは、この入力を足し合わせたものを**活性化関数に通し、最終的な結果を出力します。

わかりやすくこれを二次元で考えてみます。

――山崎
「直線で○と☓を分類する際に、最初はランダムに線を配置し、ここは違うから少し動かす、また違うから少し動かす、というように、数学的に最適な方法で境界線を動かします。これをすべて正しく学習させる、もしくは、回数を設定しそこに達するまで学習を繰り返すことで、正答率を上げます。これが「パーセプトロン」と呼ばれる初期のニューラルネットワークです」

*学習データにどのような特徴があるかを数値化したもの
**ニューラルネットワークにおいて、線形変換をした後に適用する、非線形関数もしくは恒等関数

しかしこれでは、複雑な分布を持つ(具体的には線形分離不可能な)問題については適用ができず、次のマルチレイヤーパーセプトロンの登場を待たないといけません。

マルチレイヤーパーセプトロン 

2回目のブームをけん引したのは、入力層と出力層の間に隠れ層を取り入れ、多層にした「マルチレイヤーパーセプトロン」でした。この技術により、「パーセプトロン」では処理ができなかった非線形分離も可能になり、複雑な処理が可能になりました。

――山崎
「解くべき複雑な数式を分解し、シンプルな最適化問題の組み合わせににしていく。そのとき、最後の解くべき数式を最適化、次に最適化したものを最適化……と後ろから順に解いていけば、楽に最適化できるということが提案されました。これを『誤差逆伝播法』と言います」

しかし、この技術も、微分を繰り返すことにより、誤差がコンピューターの認識範囲を超え、「誤差がない」と判断する「ゼロ喪失」などの問題が発生し、学習がうまく進まなくなりました。

さらに、当時の技術では、層を3、4、5層と複雑にすることで、学習データに適合しすぎてしまい、学習データとは異なるデータでは、正答率が低くなる「過学習」が発生しやすくなりました。

――山崎
「多少の間違いを含んでもわかりやすさを優先して説明すると、コンビニに行くためだけに、スーパーカーで行くイメージかな、と思っています。スーパーカーを動かすには、複雑で完璧なチューニングが必要であるが、めんどくさくなりメンテナンスを怠ると車自体が動かない、という具合です」

このような欠点により、2回目のAIブームも下火になりました。

ディープラーニング

マルチレイヤーパーセプトロンまでは、入力層に人間が指定した特徴量を入力していました。しかし、ディープラーニングは、層を複数にすることで、特徴量そのものをコンピューターが判断できるようになりました。

――山崎
「たとえば、層が複数あると、ある層は色について考える、ある層はエッジ(境界線)について考える、のように分解して考えられます。実際に、各層のネットワークが画像認識においての画像の何を見ているかフィルタの可視化を行ったところ、初期のレイヤでは色や模様などより低次元の特徴を、後段に行くほど人の顔っぽい形などより高次で概念的な特徴をつかんでいるとする報告もあります。

何が重要なのかディープラーニングが自動的に学習できるようになり、人間が考えた特徴量を用いた場合よりも認識精度が高くなった要因のひとつです。しかし、特徴量もコンピューターが考えるため、出力の根拠がブラックボックス化してしまうという欠点もあります」

Pre-train & Fine-tune

ディープラーニングの学習手法のひとつとして、「Pre-train & Fine-tune」があります。

「Pre-train & Fine-tune」は、事前に一般の画像情報を学習させ、それを専門分野の画像に転移して学習させることで、解析を可能にする学習手法です。上の画像の例は、イラストに描かれた人や犬の検出を行う例です。イラスト画像に対する学習データはあまり存在しません。

それに対し、自然画像に対する学習データは多く存在します。そこで、まず自然画像で学習し、さらに二段目では自然画像をイラスト風に画風変換したもので再学習し、最後にイラストを使うという多段階のFine-tuningをしています。

――山崎
「たとえば医療画像を解析したいとき、医療の画像だけでは、学習のために十分な量を集めることが困難です。ゆえに、まずインターネット上のさまざまな画像を学習させ、一般的な『画像とはどういうものか』、つまり人間で言う『常識』を身に付けさせます。これを基本とし、専門知識として医療画像を追加で学ばせることで、専門的な画像を解析できるようになります」

現在のニューラルネットワークの学習手法

Photo by felix_w on Pixabay

このように、AIにおけるさまざまな技術の発展により、現在は3回目のAIブームに突入しています。現在のAIの主要な手法であるニューラルネットワークには、さまざまな学習方法が考案されています。そのなかで、主に活用されているふたつの例をご紹介します。

Dropout法

Dropout法は、「一度学習したネットワークの一部をわざと一度忘れさせる」学習法です。具体的には、ニューラルネットワーク中の重みの一部(たとえば半分)を強制的に0にリセットさせて再度学習を行います。

――山崎
「人間も何度も忘れては勉強するということを繰り返して知識が身につくように、Dropout法では、一度学習させた内容の一部をあえて忘れさせ学習、また忘れさせて学習……を繰り返します。現在の視野を一度忘れさせ、新しく広い視野で、また学習させる方法です。これにより局所的最適解に落ちることをできるだけ防ぎます」

確率的勾配降下法(SGD)

確率的勾配降下法とは、確率的に高く示された「最適化する」方向へ進んでいく学習方法です。

――山崎
「たとえば、樹海で遭難したとします。山の形の全貌がわからないのでどの方向に進めば助かるのかわからない。そんなときに、(多少のランダム性を許して)少しずつ動いては、助かる確率が高いと思われる方向へと進んでいくようなものです」

活性化関数(ReLU)

ReLUとは、負の値のときは0を出力し、正の値のときはその値をそのまま通す、最適化に用いられる活性化関数です。

この関数を通すことで、ニューラルネットワークの精度が上がると考えられており、研究が進められています。

代表的なニューラルネットワークの種類

ニューラルネットワークにはさまざまな種類が存在します。ここでは「CNN(Convulutional Neural Network)」「RNN(Recurrent Neural Network)」をご紹介します。

CNN(Convolutional Neural Network)

CNNとは、入力層と出力層の間に、入力データの特徴量を捉える「畳み込み層」と、その特徴への依存性を減らす「プーリング層」を加えたニューラルネットワークのモデルです。

主に、画像認識に用いられています。また、言語処理や音声処理においても何らかの形でデータを2次元行列の形にしてCNNを適用することもあります。

まず、畳み込み層において、画像などのデータから特徴を捉えます。プーリング層は、対象の特徴の位置が入力データのなかで多少ずれた場合も、同じ特徴として認識する機能を持ちます。このふたつの層をひとつのペアとして繰り返し、最終的に、画像全体から抽出された特徴を組み合わせることで、対象物を認識します。

RNN(Recurrent Neural Network)


RNNとは、不定長かつ順序関係のあるデータをより自然に扱うことができるニューラルネットワークのモデルです。

CNNとは異なり特徴的なのは、隠れ層での出力値をそのまま入力値として使うフィードバックループの機能を有していることです。主に自然言語処理や音声処理のような時系列データに多く使用されます。

たとえば、RNNの言語モデルに「寒い日は」と入力すると、その後、「続きます」「終わります」などの単語を、出力可能性が高いとして予測します。

山崎先生監修のAI研究・ビジネス活用事例

Photo by Gerd Altmann on Pixabay

今回、記事の監修をしていただいた山崎先生が研究されている「魅力工学」の分野で、ニューラルネットワークを使ったAIが活用されている例を4つ紹介します。

魅力工学とは、画像や写真といったデータに人工知能を用い「心に刺さる」「映える」といった魅力を定量化し、その要因を解析したり、増強したりする研究です。

プレゼン解析「プレトレ」


プレトレ」とは、自分のプレゼンが視聴者にどう受け取られそうかを予測・解析できるサービスです。

内容や言葉遣いなどの言語情報、テンポや抑揚などの音声・音響情報を学習させ、14種類の評価尺度から、プレゼンテーションが観衆にどう受け取られるかを解析します。

以下の画像は、スティーブ・ジョブズ氏とビル・ゲイツ氏のプレゼンを解析した例です。

ジョブズのプレゼンは、「Funny(面白い)」に加え、ちょっとジョークがきついので「obnoxious(不快な)」、さらにはさすがジョブズと言いたくなる「Informative(情報豊かな)」「Fascinating(ワクワクする)」「Ingenious(天才的な)」といった項目がみられます。

対して、ビル・ゲイツのプレゼンは、ジョブズのような「Fascinating」や「Funny」といったきらびやかな印象はないものの、ジョブズにはない「Persuasive(説得力がある)」や「Courageous(勇敢な)」のような印象を与えると解析されています。

スライド制作支援

この実験は、プレゼンのためのスライドをAIに読み込ませ、「人間の目がどこに誘導されやすいか」や「改善すべき点はどこか」を可視化し、デザインの改善を支援する研究です。

以下の例は、生まれてはじめてスライドを作る参加者が、アインシュタインが何者かを説明するスライドを作成した経過です。

オリジナルのスライドでは文字のみの構成で、これをVisual Importance Map [Bylinski, UIST17]というAIを通してヒートマップで表すと、全体的に赤く表示され、視線の誘導が上手くできていないのではないかということが推察されます。そこで改善した中央のスライドでは重要なキーワドをハイライトしたり行間を空けたりして、そこに人間の目が誘導しやすく改善されています。

さらに、中央のスライドに改善点可視化のシステムを用いて見ると、ポイントが如実に現れます。中央スライドの例では、文字が詰まっているところ、不自然にスペースが空いているところが指摘されているようです。この結果を踏まえ、被験者が改善したものが、以下のスライドです。

最初のスライドに比べ、写真や文字に色が入り、行間も整っていて、見やすい資料に改善されています。

マッチングサービス「Pairs」

マッチングサービスの「Pairs」では、絞り込み検索に漏れた人同士を、AIがマッチングさせる機能を共同研究しており、開発が進んでいます。

条件検索では、年収や職業、学歴などを指定し絞り込むと、「素敵」と思える人も検索結果から漏れてしまいます。そこでAIが、条件には漏れたがうまくマッチングが成立しそうな人を示して可能性を広げてくれるという機能です。

穴場の観光地推薦 

世界中の観光地のなかで、訪問者数が少ないものの、いいね数が多く、インスタ映えする写真が撮れる場所をAIが抽出し、推奨してくれるものです。

たとえば、ニューヨークでいうと、ハドソン川を渡ってニュージャージー側へいくと、マンハッタンの北から南まで一望できるいい写真が取れる場所、のように推薦してくれます。

技術で「匠」になる基礎をサポートしたい

最後に山崎先生の研究における考えについて聞きました。

――山崎
「現在のAIは、すごいと言われる反面、少しノイズを入れるだけで、簡単にミスをすることがあります(敵対性的画像生成と呼ばれます)。たとえば、自動運転において、止まれの標識で、ノイズによる誤認識が入り、車が止まらないと非常に危険です。現在我々は、これの原因と防ぎ方について、興味深い研究をしています」

あわせて、山崎先生のAI研究におけるポリシーについてもうかがいました。

――山崎
「僕は、AIにすべて任せることには興味がありません。人間の能力を高める、その手助けとしてAIを使うことに非常に面白さを感じます。

たとえば、さまざまな業界の一線で活躍する「匠」の技術力やそのセンスは可視化ができず、「匠」の領域にたどり着くには、大きな努力と時間をかけたトレーニングが必要です。その必要な基礎能力を得るために、3年のトレーニングが必要だとすると、僕はそこに技術を用いて、1年で得られるように支援したいと考えています。営業マン、家電量販店では販売員により売り上げが十倍違う場合もあります。

そのような初心者を0点から70点までの「匠」になる基礎を技術でサポートし、70点から上の「匠」の領域に早く人間がたどり着けるよう、支援したいと考えています」

ディープラーニングとは|AI・人工知能・歴史・仕組み・学習手法・活用事例

AI(人工知能)は、近年、さまざまな分野において技術革新として、急速に導入が進められています。この発展を支える技術が「ディープラーニング」です。本稿では、東京大学大学院情報理工学系研究科の山崎俊彦准教授にお話を伺い、その歴史から仕組みまで詳しく解説します。

山崎俊彦氏
山崎俊彦氏
東京大学工学系研究科電子工学専攻修了。工学博士。 現在、東京大学大学院情報理工学系研究科電子情報学専攻准教授。 2011~2013年まで米国・コーネル大学 Visiting Scientist。 ビッグ・マルチメディア・データを用いた魅力工学の研究に従事。

ディープラーニングとは?

ディープラーニングとは、ニューラルネットワークを多層に結合して表現・学習能力を高めた機械学習の一手法です。

単純に多層にするだけでは、表現力不足や過学習などの問題がありましたが、Dropout法やReLUなど、数々の工夫とビッグデータの助けにより解決されました。

現在、AIを構成するアルゴリズムとして、もっともよく用いられている手法です。

機械学習やディープラーニングとの違い・関係性


「ニューラルネットワーク」「機械学習」は、ディープラーニングとあわせて耳にすることが多い単語です。混同されたり誤解されやすい、これらの違いについて解説します。

機械学習とは何か?

機械学習とは、コンピューターが大量のデータを学習し、分類や予測などのタスクを遂行するアルゴリズムやモデルを自動的に構築する技術です。

AIを機能させる技術・アルゴリズムとして、ニューラルネットワーク以外にも「ニアレストネイバー法」、「決定木」、「サポートベクターマシン」など、さまざまな技術が存在します。

ニューラルネットワークとは何か?

ニューラルネットワークとは、脳の神経回路の一部を模した数理モデル、また、パーセプトロンを複数組み合わせたものの総称です。

機械学習を機能させるための一手法であり、現在では、ニューラルネットワークを構築するアルゴリズムとして、ディープラーニングが主に使用されています。

ディープラーニングの歴史


現在は、AIにおける3回目のブームと言われています。この3回目のブームのブレイクスルーとなった技術がディープラーニングです。

1943年、人間の脳を模したモデルが提唱されはじめ、1957年に、米国の心理学者フランク・ローゼンブラット氏により、人間の視覚や脳の機能を模した「パーセプトロン」が開発され、1回目のブームとなりました。しかし、1960年代に、マービン・ミンスキー氏により「*線形分離不可能な問題を学習できない」弱点を指摘されます。さらに、米国政府が機械学習に対する研究費用を打ち切ったことにより、人工知能への失望感が広がりました。

これにより、1回目のAIブームは急速に勢いを失い、冬の時代を迎えます。

1986年、米国の心理学者デビット・ラメルハートらにより正解データとの誤差の傾斜を計測するアルゴリズム「誤差逆伝播法」が開発され、2回目のブームが起きます。しかし、インターネット登場以前の当時は、機械学習に利用可能なデータが少なかったため、**多層ニューラルネットワークの学習精度がなかなか向上せず、ブームはまた下火に向かいました。

2012年、世界的な画像認識コンペティション「ILSVRC」において、東京大学やオックスフォード大学など名だたる研究機関を抑え、トロント大学が開発した「Super Vision」が圧倒的な精度で勝利を飾り、人工知能研究界に激震を与えました。

トロント大学のジェフリー・ヒントン教授らが開発した「***オートエンコーダ」という技術により、ニューラルネットワーク自身で特徴を捉えることが可能になりました。「Super Vision」にも用いられた、この多層ニューラルネットワークを用いた学習方法は「ディープラーニング」と呼ばれ、3回目のブームのブレイクスルーとなりました。

*ふたつの集合が二次元平面上にあるとき、それらの集合を一本の直線では分離できない場合
**「入力層」「隠れ層(中間層)」「出力層」で構成されるニューラルネットワーク
***ニューラルネットワークの出力層の値が入力層と同じになるように、重みのパラメータを調整する手法

ディープラーニングの仕組み

Photo on CCDC Army Research Laboratory

ディープラーニングは、どのような構造で動いているのでしょうか。ここでは、ディープラーニングの枠組みであるニューラルネットワークの仕組みから、最新のディープラーニングの手法まで詳しく解説します。

ニューラルネットワークの仕組み


最初に、ニューラルネットワークの仕組みから説明します。

まず、入力層にデータを入力し、そのデータを認識をするための指標である*特徴量 を入力します。その入力に対し、神経細胞間の接続強度に相当する重み w1 w2‥を掛けたものを、出力層のニューロンに入力します。

出力層のニューロンは、この入力を足し合わせたものを**活性化関数に通し、最終的な結果を出力します。この入力から出力までの一連の流れを「パーセプトロン」と呼びます。ニューラルネットワークは、このパーセプトロンを複数組み合わせることにより構成されています。


*学習データにどのような特徴があるかを数値化したもの
**ニューラルネットワークにおいて、線形変換をした後に適用する、非線形関数もしくは恒等関数

ディープラーニングの仕組み


ディープラーニングは、ニューラルネットワークの中間層を複数にすることで、特徴量をコンピューターが判断します。

――山崎
「たとえば、層が複数あると、ある層は色について考える、ある層は形状について考える、のように分解して考えられます。何が重要かをディープラーニングが自動的に学習できるようになり、それが人間が考えた特徴を用いるよりも認識精度が高くなりました」

ディープラーニングの学習手法

現在、活発に研究が進められているディープラーニングの学習方法について、「Pre-train & Fine-tune」「マルチモーダル学習」のふたつをご紹介します。

Pre-train & Fine-tune


「Pre-train & Fine-tune」は、事前に一般の画像情報を学習させ、それを専門分野の画像に転移して学習させることで、高度な解析を可能にする学習方法です。

――山崎
「たとえば医療画像を解析したいとき、医療の画像だけでは、学習のために十分な量を集めることが困難です。ゆえに、まず、インターネットに転がっているさまざまな画像を学習させることで、一般的な画像とはどういうものか、を理解させます。これを基本として、専門知識として医療画像を追加で学ばせることで、専門的な画像を解析にできるようになります」

マルチモーダル学習


「マルチモーダル学習」とは、複数の種類のデータを使ってAIが学習する仕組みのことです。

――山崎
「たとえば、画像と音声とテキストを持ってきます。まず画像は画像で、音声は音声で、テキストはテキストで学習させます。その後、一度学習を止め、それぞれ学習した3つの学習結果をつなげ、再び学習し直し、全体に学習結果(ロス)を返します。

つまり、画像、音声、テキストを、個別・全体両方で学習させる方法です。ディープラーニングは認識精度が高くなっただけでなく、画像や音声、言語といったこれまでの分野間の垣根を取っ払い、自由に行き来することを可能にしたことも大きな貢献だと思います」

以上の説明で気がついた方もいるかもしれませんが、ほかの多くの機械学習アルゴリズムがデータをすべて一気に学習使って学習しなくてはならないバッチ学習であるのに対し、ニューラルネットワークは途中で学習を止めたりデータを変えたりアーキテクチャを変えたりしながら逐次学習させる事が可能です。これが、より多くの応用先を生み出しています。

例1:TVCMの効果予測
「何%の人が覚えるか」「何%の人が買いたくなるか」のような、CMを打つことで得られるであろう効果を予測します。
――山崎
「たとえば、画像データや音声データ、*メタデータ、画面上のキャプション、ナレーションなど、さまざまなデータを一度にディープラーニングで学習させ、予測することができます。上記のPre-train & Fine-tuneとマルチモーダル学習を組み合わせたアプローチです」
例2:GAN(敵対的生成ネットワーク)
「GAN」は、用意されたデータから特徴を学習し、擬似的なデータを生成するアルゴリズムです。
――山崎
「本物を見分けるものと偽物を生成するふたつのニューラルネットワークを用いて、切磋琢磨させることにより、偽物の本物に対する生成精度を高めます。

たとえば、偽札を作る際の、偽札を作ろうとする犯人とそれを見破る警察や銀行員が、互いに切磋琢磨するさまを想像してみるとわかりやすいでしょう。偽物生成のニューラルネットワークは、最初はうまく作れませんが、だんだん工夫を凝らすことにより精度が上がります。

本物を見分けるニューラルネットワークも、偽物生成のニューラルネットワークの成果物を常に見ているので見分ける精度を上げていきます。最終的に、偽物を見分けられず通ったものが、GANにより生成されます」

この技術も、個別と全体の両方で学習を繰り返すことにより、可能になった事例です。

*あるデータが付随して持つ、そのデータ自身についての付加的なデータ 
例)業種、CMの打ち方 など

2020年時点のAIビジネス活用事例

ディープラーニング技術をビジネスに応用し、実用化した事例を紹介していきます。
Photo by Gerd Altmann on Pixabay

インフルエンザ予報


インフルエンザ予報は、全国各地のインフルエンザの流行度合いを予測し、可視化できるサービスです。インフルエンザ新規患者数のデータをもとに、ディープラーニングを用いた予測アルゴリズムを使用。地域ごとに今週〜4週間後までの流行期間を予測できるほか、流行度合いもレベル0〜3に分けて把握できるため、インフルエンザの予防に役立てることができます。

特大サイズの画像素材をAIで生成するサービス「OOH AI」


「OOH AI」は、特大サイズの画像素材をAIで生成するサービスです。ディープラーニングを用いることで、数十万pxサイズまで高解像度化でき、写真やイラストを元画像の縦4倍、横4倍に高解像度化することが可能です。主に屋外広告、交通広告に利用したい広告素材向けとなっており、早く、低コストでクオリティーの高いOOH用の画像を制作できます。

映像解析ソフトウェア「People Counter Pro」


People Counter Pro」は、キヤノンが発売する、ディープラーニング(深層学習)を用いて、ネットワークカメラで撮影した映像から、数千人規模の群衆人数をリアルタイムにカウントする映像解析技術を搭載した映像解析ソフトウェアです。映像から人の頭部を検出することで、人が密集している状況でも人数をカウントでき、また、指定した領域のなかにいる人数の表示や、推移のグラフ表示も可能です。そのため、混雑状況の把握や分析に活用できます。

これからの課題は「説明可能性」と「自律学習」

最後に、山崎先生にディープラーニングの将来性について伺いました。

――山崎
「興味があるのは、ディープラーニングが難しいとしている『Explainability(説明可能性)』の分野です。以前は、機械学習でデータ分析するための特徴量の抽出を人間が行っていました。しかし、ディープラーニングの誕生により、人間よりも高い精度で、機械が特徴量を捉えられるようになりました。ゆえに、なにを重要視して機械に特徴量を捉えるかについても機械が判断するため、人間がその理由を説明することは困難とされることが多いです」

ディープラーニングは、AIの革新的技術として、現在の3回目のAIブームのブレイクスルーとなりました。では、今後AIがより発展していくために、これから解決すべきディープラーニングの課題とは何でしょうか。

――山崎
「今後の課題は、ディープラーニングを自律的にどう学習させるか、だと思います。

たとえばホテルで流行っている*ダイナミックプライシングを例にしましょう。現在の価格指標は、季節・天候などよりもホテルの近くでジャニーズのライブや大きな学会が開催されるなど、AIと関係がないものの影響が強いんです。つまり、これらをAIが理解するためには、ジャニーズがどういう集団で、彼らが来るとファンが何万人単位で動く、という一般常識を理解しなくてはなりません。

現在、AIには、このような一般常識や共通概念が存在しません。一般常識を、機械にどう自立的に学習させるかが、これから重要になると思います。また、ジャニーズのコンサートが来るという情報も自律的にどう獲得してくるかも重要です」

*ダイナミックプライシング……同一の商品やサービスの価格を需要と供給の状況に合わせて変動させる価格戦略。

新型コロナ、SNSで感染状況を検知:人工知能ニュースまとめ8選

日々、目まぐるしく進化、発展を遂げるAI(人工知能)業界。さまざまな企業が新しいサービスを開始したり、実験に取り組んだりしている。

そこで本稿ではLedge.aiで取り上げた、これだけは知っておくべきAIに関する最新ニュースをお届けする。AIの活用事例はもちろん、新たな実証実験にまつわる話など、本稿を読んでおけばAIの動向が見えてくるはずだ。

AIが「年収を上げる食事」を提案、仕事内容や生活習慣などを分析

株式会社シグナルトークは1月29日、AIが年収を上げる食事をアドバイスするサービス 「WorkUp AI(ワークアップAI)」の正式スタートを発表した。

ワークアップAIは、専用アプリをPCにインストールするだけで、カメラやキーボードタッチなどを通して、PC業務のワークパフォーマンスを自動計測。AIが独自のメソッドにより、パフォーマンス向上に必要な栄養素を含む食生活をアドバイスするというものだ。

千葉県・船橋市役所で職員の問い合わせに自動応答するAIを実証へ

株式会社マインドシフトと船橋市は2月4日、市役所内の問合せ自動対応による業務効率化に向けた実証実験を開始すると発表した。

この実験では、マインドシフトが提供するAI(人工知能)チャットボットサービス「LogicalMind」によって、市役所内職員からの問合せの対応を自動化して業務効率化検証を実施する。

イヤホン型脳波計で深層心理をAIが解析、耳から心地よい状態に誘導

VIE STYLE株式会社(ヴィースタイル)は2月4日、北陸先端科学技術大学院大学とヴィースタイルが開発するイヤホン・ヘッドホン型簡易脳波計から測定された脳波および生体情報により、ユーザーの深層心理を解析しAIを構築する共同研究の開始を発表した。

ヴィースタイルは、次世代のプロダクトとして心と体を整えるI.o.H.デバイス(生体情報を取得するデバイス)および生体情報を活用してサービスを提供するI.o.H.ウェルネスプラットフォームを開発している。

I.o.H.ウェルネスプラットフォームとは、音楽や映像コンテンツを視聴中のユーザーからヘッドホンやイヤホンにより生体情報を取得。AIが解析してユーザーの深層心理を推定する。レコメンデーション機能等に反映することで、ユーザーに個別最適なコンテンツを提供し、ユーザーを心地よい状態(ウェルビーイング)に誘導サポートする機能を備えたプラットフォームだ。

コロナウイルスの感染状況をツイッターなどで監視し人工知能が分析

株式会社Spectee(スペクティ)は2月6日、TwitterやFacebookなどのSNS情報をもとに新型コロナウイルスによる肺炎の広がりを解析するシステムを開発したと発表。あわせて、関係機関に納入したことを明かした。

スペクティでは、SNSをリアルタイムに解析し、災害情報・危機管理情報を抽出、配信するサービスを展開している。すでに官公庁や地方自治体、民間企業など国内約300社以上に提供しているという。

AIによって「高糖度トマト」の生産に成功、低負担かつ安定栽培へ

株式会社Happy Qualityは2月5日、静岡大学との共同研究である、AI(人工知能)の判断に基づく灌水(かんすい)制御によって糖度トマトを高い可販果率での生産成功を発表した。

研究開発と実証実験の結果、AIの判断に基づいた灌水制御では平均糖度9.46の高糖度トマトを、バラつきを抑えて容易に栽培できることを示した。さらに、急な天候変化に追従した適切な灌水制御によって、従来の日射比例方式による灌水制御に比べ果実の裂果を大幅に減らし、高糖度トマトを高い可販果率(95%)で生産できることも確認している。

AIに関わる膨大な調査データを網羅した「AI Index」2019年版が公開

スタンフォード大の研究者らが、AI関連の研究開発や経済、教育、各国の動向など多様なデータをまとめた「AI Index」の2019年版を発表している。

2019年版の本レポートの情報量は、2018年版の3倍にものぼるという。すべてのデータに目を通すのは至難の業のため、よりレポートを簡単に読み解ける各種ツールも公開された。

小田急線の踏切でAIが異常検知、事故を未然に防ぐ監視体制目指す


小田急電鉄株式会社は2月6日、ノキアソリューションズ&ネットワークス合同会社の「カメラ映像とAIによる異常状態検知システム(スペースタイムシーンアナリティクス)」を用いた踏切内の安全性向上を目的とした実証実験をすると発表した。

将来的にはAIによる解析結果を用いて、付近を走行する列車を自動で停止させるなど、踏切での事故を未然防止できる監視体制の構築を目指している。

シャープ、小学校でAI教育を実施 ロボホンのカメラで画像認識を体験

シャープは2月7日、コミュニケーションロボット「RoBoHoN(ロボホン)」を活用した小学校向けAI(人工知能)教育プログラムの開発を発表した。

東京都小金井市立前原小学校(5年生を対象)で2月10日から3月4日(予定)まで実証授業を実施する。

児童は、自身の表情や特定の物体などをロボホンのカメラで連続撮影し本ソフトに学習させる。これにより、類似の画像をロボホンのカメラで認識させると、特定の返答や動作をするプログラムを作成できる。また、一連のプログラム作成体験を通して、AIについての理解を深めるとともに、児童自身がAIの利点や課題を考える機会を提供するという。

小田急線の踏切でAIが異常検知、事故を未然に防ぐ監視体制目指す

<※写真はイメージです>

小田急電鉄株式会社は2月6日、ノキアソリューションズ&ネットワークス合同会社の「カメラ映像とAIによる異常状態検知システム(スペースタイムシーンアナリティクス)」を用いた踏切内の安全性向上を目的とした実証実験をすると発表した。

>>小田急電鉄(外部サイト)

実証実験の期間は2020年2月14日(金)から3月までを予定。実施場所は小田急小田原線 玉川学園前8号踏切(東京都町田市原町田)を予定している。

踏切内での異常状態の検知をより強化

この実証実験では、踏切監視カメラの映像を「スペースタイムシーンアナリティクス」を活用して解析することで、踏切内での異常状態の検知の強化を目的としている。なんでも、踏切内におけるさまざまな動作を収集し、AIで分析するそうだ。

将来的にはAIによる解析結果を用いて、付近を走行する列車を自動で停止させるなど、踏切での事故を未然防止できる監視体制の構築を目指している。

小田急電鉄株式会社では、中期経営計画において鉄道の「先進的な技術による高度化」を掲げているそうだ。今後も、日本一安全な鉄道会社を目指して新たな技術導入等にも積極的に取り組み、安心・快適に小田急線を利用できるようにする、としている。

ちなみに、ノキアの「スペースタイムシーンアナリティクス」を鉄道の踏切に活用するのは世界初の事例とのこと。

>>小田急電鉄(外部サイト)

東急電鉄ではホーム転落事故検知システムを導入

小田急電鉄以外にも鉄道において事故防止などのためにAIが活用されている例がある。

2018年8月からは、東急田園都市線の鷺沼駅に、駅構内のカメラから得た情報で、線路へ転落する人を自動検知して通知する「転落検知支援システム」が導入されている。画像から人物を検出し、特定のエリア(=軌道側)に侵入した場合に通知される、という仕組みだ。

新幹線の“着雪量予測”をするAIモデルの試行

また、JR西日本は、2019年から新幹線の着雪量予測にAIモデルの試行を開始している。

これは、冬に金沢から北陸を通って東京を目指す際には、走行中に車両の下部に雪が付着する。雪が固まり、ある程度の大きさになると軌道に落下する場合もあり、軌道に敷かれているバラストと呼ばれる砕石が飛散し周囲に危険が及ぶ。雪を取り除くためには大量の人員を必要とするため、あらかじめ着雪量を予測し、雪落とし作業の要否の目処をつける必要があるそうだ。

JR西日本で使われているAIモデルはコンペによって作成されている。下記記事ではこのコンペ開催するまでの話を聞いている。