Googleの開発者イベントGoogle I/O 2017より。GoogleがAIを活用したビジュアル検索機能Google Lensを発表しました。その機能はカメラで映し出した映像のなかにある物体を認識し、それが何か、またはそれに関する情報を検索してAR表示などで教えてくれるというもの。
たとえば路傍に咲く花をカメラで映せば、その映像をリアルタイムにAIが認識し、何という名の花か説明をしてくれます。レストランの看板を映せば、その店の人気などの情報を知ることもできます。またWiFi設定が書かれたカードを読み取れば、その情報を解釈して自動的にスマートフォンをWiFi接続できます。
さらにはコンサートの告知ポスターなどを移すことでカレンダーにその日程を書き込み、チケットの購入手配をするといった使い方までできるとのこと。
With Google Lens, your smartphone camera won't just see what you see, but will also understand what you see to help you take action. #io17 pic.twitter.com/viOmWFjqk1
— Google (@Google) 2017年5月17日
発表の壇上では、たこ焼きと書かれた立て看板を撮影して4その文字情報を英語翻訳したり、そこからたこ焼きそのものサンプル画像を呼び出す様子を紹介していました。
![](http://o.aolcdn.com/hss/storage/midas/42ddd9a3f24c14d698c76de57de4e44c/205279548/tako1.jpg)
ただ、たこ焼きを英語に翻訳と言いつつ提示したのが「"Takoyaki"かい」とか、「6個130円て、それタコ入っとんか?!」と思った人ももしかするといたかもしれません。
Google LensはGoogleフォトで培ったAIによる画像認識の強化と、Googleアシスタントの音声認識AIを活用します。Googleのサンダー・ピチャイCEOは「機械学習とAIの世界を進化させるためにデータセンターをイチから再設計した」と語っています。