MIT開発:人の感情と生理状態をカメラで測定できる時代がやってくる?
カメラは人の心までも写すようになる?
本日10日虎ノ門ヒルズで開催されたMIT Media Lab TOKYO。ここではカメラのセンサーを用いた研究が発表されました。登壇したのはMIT Media LabのDaniel McDuff氏。彼はもともと、人の生理現象やエモーションを数値化し、感情認識をコンピュータで可能にする視覚ツールを作成していました。
オリンパスのサポートのもとに彼が開発したのは、心拍数をはじめとする人の生理現象を認識し、感情までをもデータ化するシステムです。既存のWebカメラは3つの光の帯域を測定していますが、これだけでは得られる情報はわずかです。そこで光の帯域を5つ測定できるカメラのプロトタイプを用いることで、心拍数・呼吸数・心拍変動(これによってストレスがわかる)などを認識できるようにしました。ちなみに製造コストは一般的なカメラと同じくらいだそうです。
一般的に生理現象を計測するにはウェアラブルな端末を装着する必要がありますが、これはカメラで被写体をうつすだけで微妙な生理・自律神経系の反応を捉えることができるんだそうです。カメラに収まるもの全てを計測できるため、一度に複数の身体部位を認識させることや、数人を同時に分析することも可能なんだそう。
この研究の面白いところはサンプルの取り方にもあります。一般的に被験者は、マンパワーを使って集めたごく限定的なものになりがちですが、インターネット上にはたくさんの動画が溢れています。これらのクラウド上にある被写体の顔色や表情をサンプルにすることでMcDuff氏の研究は飛躍的に効率化するのです。
この技術が応用できれば例えば遠隔教育に使えるとMcDuff氏は言います。Webカメラごしに生徒に数学の問題と出し、解答させます。その際に被写体となる生徒にストレスがかかっていれば、問題の解答につまずいていることがわかるので先生はそこでヒントを与えてあげればいいのです。
もちろん学業の面だけではありません。瞬時に生理現象が把握できるのであれば医療の質だってあげることができるでしょう。通院しなくともWebカメラごしに医者と面談するだけで健康状態がわかる日も来るかもしれません。
感情と本能をデータ化することで、システムを作る側は人に心地よいサーヴィスを提供できるようになるのです。みんなが同じものを見る時代ではなく、個々にマッチするものを体験する時代。McDaff氏は自身の研究で「一人一人の生活の質を上げていくサポートになればいい」と語っていました。
余計なものを介さずダイレクトに心に訴えかかられる時、私たちはコミュニケーションにおいて大きな変革を遂げることになりそうです。なぜなら支障となるわずかな原因すらも可視化されるから。カメラの進化が人を変えうる。なんだかすごいものを見ました。
source: MIT Media Lab TOKYO
(嘉島唯)