Googleは、世界中に数多くいる視覚障がい者のさらなる自立を後押しすることを目指し、あるアプリを開発している。
Googleは米国時間5月8日、周囲にある物体やテキスト、人についてユーザーに音声で情報を伝える「Android」版アプリ「Lookout」を開発していることを明らかにした。Lookoutを使用する際には、このアプリをインストールしたデバイスをシャツのポケットに入れたり、ネックストラップで首にかけたりして、カメラが身体の外側に向くように装着する。
Lookoutは、ユーザーのその時点での行動に基づき4つのモードで動作する。これらのモードにはそれぞれ「Home(自宅)」「Work & Play(仕事や遊び)」「Scan(スキャン)」「Experimental(実験)」という名がついている。モードを選択すると、アプリは自宅のソファの場所や職場のエレベータの位置など、周囲で検知した物体についてユーザーに音声で伝える。
アプリのScan機能は料理本に掲載されたレシピなどのテキストを読み上げることも可能なほか、Experimentalモードでは開発中の各種機能を試すことができる。
このアプリはインターネット接続がなくても使用可能で、機械学習を利用してユーザーが音声で伝えてほしいと思っている情報を学習する。
Lookoutアプリは2018年内に米国向け「Google Play」ストアで提供開始される予定だ。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
ファイル共有だけじゃない!Synologyの
「DS918+」を徹底レビュー
多様な専門家の協働と共創でAIの活用効果を
最大化するプラットフォームが登場!
働き方改革の目的は「生産性向上」。未来を
切り開くためのカギは「デジタル導入」を
それぞれのビジネスや業務の変化に合った
ストレージを選ぶためのポイントとは