海外コメンタリー

機械は人の感情をますます理解する--元グーグル幹部らの展望

Greg Nichols (Special to ZDNet.com) 翻訳校正: 石橋啓一郎 2015年12月21日 06時15分

  • このエントリーをはてなブックマークに追加

 カーネギーメロン大学計算機科学部の学部長であり、元GoogleのバイスプレジデントであるAndrew Moore氏が、興味深い話をしてくれた。同氏は、2016年には機械に感情を理解させる研究が盛んになると予想しているという。ロボットやスマートフォン、コンピュータはまもなく、人間の感情を理解し、それに合わせて反応できるようになり始めるだろう。

 「すぐに役に立つ使い方が出てくるはずだ。感情を理解するコンピュータによる、緊急治療室での患者のモニタリングができれば、患者がコミュニケーションできない状態でも、医者は患者が不快に感じているかどうかを知ることができる。あるいは、生徒の感情面での反応を見て生徒の関心のレベルを知ることができれば、教師はより効果的に教えることができるだろう。これらは明らかに有益だ」と同氏は説明する。

Aldebaranが開発した、感情を読み取るロボット「Pepper」が両手を差し伸べている。
Aldebaranが開発した、感情を読み取るロボット「Pepper」

 しかし、Moore氏が警告するように、感情を理解できる機械が受け入れられるのには、困難が伴う可能性もある。

 「この技術が広告などに使われれば、不快に感じられるかも知れない。わたしはインターネット広告についても専門としており、もし学部長の仕事で忙しくなければ、タブレットでユーザーがウェブページを読むところを観察して、肯定的に反応しているか、否定的に反応しているかを調べられるような技術を提供するスタートアップ企業を立ち上げているだろう」(Moore氏)

 その情報が広告主にとってどれだけ貴重なものかは言うまでもないが、この技術が厳重に監視されたり批判されたりせずに進歩することはないだろう。

 人間は意識的にも無意識的にも、感情を示す手がかりを数多く発信しているため、この分野の研究はいくつか並行して進められている。声のパターンからはストレスや興奮の度合いを読み取ることができ、表情筋の動きは、人間の内部状態を表している。例えば、機械による感情センシング技術に関する最大のブレークスルーの1つは、当然にも思える話だ。

 「カメラの解像度は大きく向上した。高解像度カメラは顔のわずかな動きや、髪の毛の一本一本までも捉えることができる」とMoore氏は言う。

  • このエントリーをはてなブックマークに追加

関連ホワイトペーパー

SpecialPR

連載

CIO
内山悟志「IT部門はどこに向かうのか」
データドリブンな経営
情報通信技術の新しい使い方
米ZDNet編集長Larryの独り言
谷川耕一「エンプラITならこれは知っとけ」
田中克己「2020年のIT企業」
大木豊成「Apple法人ユースの取説」
林雅之「スマートマシン時代」
デジタルバリューシフト
モノのインターネットの衝撃
松岡功「一言もの申す」
三国大洋のスクラップブック
大河原克行のエンプラ徒然
今週の明言
アナリストの視点
コミュニケーション
情報系システム最適化
モバイル
モバイルファーストは不可逆
通信のゆくえを追う
スマートデバイス戦略
セキュリティ
ベネッセ情報漏えい
ネットワークセキュリティ
セキュリティの論点
OS
XP後のコンピュータ
スペシャル
より賢く活用するためのOSS最新動向
HPE Discover
Oracle OpenWorld
AWS re:Invent 2015 Report
「Windows 10」法人導入の手引き
北川裕康「データアナリティクスの勘所」
Windows Server 2003サポート終了へ秒読み
米株式動向
マーケティングオートメーション
AWS re:Invent 2014
Teradata 2014 PARTNERS
Dreamforce 2014
Windows Server 2003サポート終了
実践ビッグデータ
VMworld 2014
中国ビジネス四方山話
日本株展望
ベトナムでビジネス
アジアのIT
10の事情
エンタープライズトレンド
クラウドと仮想化
NSAデータ収集問題