究極のUIは脳に注目したBMIだけではない。眼球の動きなど人体からの微妙な変化という「信号」をとらえ、パソコンやタブレットの操作に役立てようという研究も活発になっている。
■見たい部分を先回りして表示
「ユーザーの見たい部分をパソコンが先回りして表示できるようになった」。こう話すのは富士通研究所イメージコンピューティング研究部の清水雅芳部長だ。富士通は12年秋に発売したパソコンに、この視線検出技術を搭載している。
微弱な発光ダイオード(LED)照明をユーザーの目に照射し、角膜の反射と瞳孔の位置をカメラでとらえて視線を検出し、視線の方向を割り出す仕組みだ。視線の動きにあわせて画面をスクロールしたり、拡大したりできる。ウィンドウズ8の操作の入り口である「チャーム」をユーザーが見ると、先回りしてその操作の入り口を大きく表示できたりもする。
富士通研は画像処理技術を車のナンバープレートの認識などにも応用。パソコンに内蔵する小型カメラと近赤外線LEDを組み合わせ、不鮮明な画像からでも瞳孔と角膜反射を正確に検出できるようにした。「運転者の身体状況を正確に把握したい」という自動車メーカーなどからも問い合わせを受けているという。
NTTドコモも視線の動きでタブレットを操作できる技術を開発中だ。赤外線照射装置をタブレットに取り付け、赤外線を目に当てた時の反射から視線の動きを検知する。目の動きに合わせてページをめくるなど、タッチパネルを操作できるという。
眼球の動きに着目し、メガネで情報の入出力を行わせようとしているのは米グーグルだ。スマホの次のUIとしてメガネ型ディスプレーを開発中で、メガネ端末を装着するとレンズ上に検索結果や受信メール、地図などが表示される。
産業への応用を狙っている研究機関や企業ばかりではない。NPO団体「ラボツネ」は昨年9月、生体機能を使ったインターフェースの開発と応用に向けた活動を始めた。
まず、眼球が動くときに発声する眼電位などを計測する4つのセンサーがつく装置を頭につけ、眼球の動きや歯ぎしりなどで車いすを操縦する電動車椅子システムを開発。13年以降、福祉施設などで障害がある人たちに使ってもらい実験を進める。
■注目集める「マルチモーダル」
ラボツネの構成員は大手自動車メーカーで技術開発に携わる青木治雄氏ら。青木氏は「脳波の測定精度や被験者自身が事前に訓練しなければならないなどまだ制約が多い。まずは眼球などを使って人間と機械をつなぐための実験を進める」という。開発したソフトウエアや電動車椅子システムを広く普及させるため、設計図などの公開も検討している。
睡眠中に「暑くて寝苦しい」と感じたらエアコンの冷房が効き始め、起床直後に「和食が食べたい」と思ったら、ロボットがご飯と味噌汁を用意してくれる――。近い将来、こんなSF映画のような生活が現実のものにな…続き (1/2)
各種サービスの説明をご覧ください。
・三菱電機、海外拠点の環境担当者を現地で育成
・大光電機、LEDダウンライトを3~4割値下げ
・川重、印で二輪車自社生産 バジャジへの委託切り替え
・アサヒビール、量販店向け営業体制を刷新
・湾岸・郊外、攻める大手 野村不動産や住友不動産…続き