Googleの開発者向けイベント「Google I/O」でAIを活用したAR検索機能「Google Lens」が発表されました。カメラで映したものを認識し、それが何かを教えてくれたり、その情報を教えてくれたり、AIが適切な情報を検索して表示してくれます。
スポンサーリンク
驚異的なビジュアル検索
With Google Lens, your smartphone camera won’t just see what you see, but will also understand what you see to help you take action. #io17 pic.twitter.com/viOmWFjqk1
— Google (@Google) May 17, 2017
このGIF画像を再生していただければ、何が起きるのかわかるでしょう。道にあるお店を映すとその店の情報を教えてくれます。カメラに映ったものをリアルタイムに検索し情報を提供してくれる。例えば花を映すと何という植物か教えてくれたり、Wi-Fi設定の紙を映せばWi-Fiの設定までしてくれます。
「Google Lens」は、このシステムを実現するためGoogleフォトで培ったAIによる画像認識と、音声認識AIを発展させています。Googleのサンダー・ピチャイCEOは「機械学習とAIの世界を進化させるためにデータセンターを再設計した」とのこと。
いつリリースされるのか
Google I/Oではこの「Google Lens」がいつ一般公開されるのか、明らかにされませんでした。しかし「すぐに」手に入るようになるとアナウンスされました。似たようなもので映った文字を翻訳してくれる「Google翻訳」が話題になり、一時期ユーザーの間で大喜利大会が行われましたが、これもお祭り騒ぎになりそうです。
AIとARの発展的な融合
筆者がカメラを趣味にしていた頃、道端に咲いている花を撮るのですが、何という花なのか検索したいと思うことがよくありました。しかし、その頃の画像検索ではできません。それが実現することになります。
新しいカフェを見つけた時には中の雰囲気がわからず、入りにくいことがあったり、料理にしてもどの程度の金額かわからなかったりします。それもこの機能で解決されるかと思うと本当にすごい時代がやってきたものだと感心してしまいます。