2018年12月4~7日に東京国際フォーラムで行われた、CGとインタラクティブ技術を扱う世界最大のイベントSIGGRAPH Asia 2018。今回もVR/AR関連の話題・展示が数多く登場しました。
(注目の最新技術が集う展示「Emerging Technologies」のトレーラー)
(体験の面白さにフォーカスした展示「VR/AR」のトレーラー)
SIGGRAPH Asia 2018で見つけたVR/ARに関する展示について、特に技術的な新規性の見られる研究展示にフォーカスしてレポートしていきます。SIGGRAPH Asia 2018のVR/AR系の研究展示は、触覚に関するものが非常に多くなっていました。2016年にヘッドセットを中心とする視聴覚の提示技術のブームが起き、現在はさらに「その先」を切り開こうとする流れが見て取れるようです。
本記事では展示の中から、触覚に関係するVR/AR系の体験ブースをレポートします。
電気刺激で歩行感を再現
歩行感覚を再現するためのデバイスには、Virtuix社の「Omni」やCyberithの「Virtualizer」など、既に製品版として売り出されているものもあります。しかし多くのデバイスは、いわば「無指向性のベルトコンベア」のようなもので、自ら主体的に身体を動かす必要性がありました。この展示は、着席したままで「歩いている感覚」を提示するシステムです。
これは三つの要素からなっています。(1)足踏みマシンによる足の上下運動、(2)VRヘッドセットとヘッドホンによる視聴覚提示、これらに加えて(3)スネの前後の腱(アキレス腱と前脛骨筋腱)へ電気刺激を与えるのがポイント。人は歩くとき、左右の足の前後の筋肉を上手に収縮させています。この収縮リズムをシミュレーションして電気刺激を与えると、(実際は筋肉は動いていないのに)歩行時の筋肉の収縮感を人工的に生起できるのです。本研究の論文では実験も行い、3つの刺激が統合された時に有意に歩行感覚が高まっているとの結果が出ています。
体験ブースでは、まず靴と靴下を脱ぎ、スタッフに両足をウェットティッシュで拭いてもらいます。その後、電気刺激の強さを4ヶ所(左右のスネの前後)一つずつ強さを体験者本人の感覚で調整します。
上記写真のペダルに足をかけ、VRヘッドセットとヘッドホンを装着。ペダルが上下に動き出すのに合わせ、歩きのリズムで足に電流が流れます。
座ったまま歩き、そして自分の意思ではなく勝手に足を動かされるという不自然なシチュエーションにも関わらず、電気刺激が加わることで「自分が歩いている」という納得感が高まるのを感じました(筆者が体験した時は、偶然にも不具合で最初の数十秒間は電気刺激が生じず、電気刺激の有無の両条件を体験できました。)。
体験したコンテンツは、ホラーな香りの漂う森の中の廃屋に独りで入り、ゾンビに出くわしてどうにか逃げおおせる……といったものでした。屋敷の中が怖くて歩行感覚どころではなかった、という部分もありましたが、階段を上っている時のリアリティ、自分は行きたくないのに歩かされている不気味さは、新鮮でした。
首都大学東京の池井研究室らが進めているプロジェクトです。映画やテーマパークにあるアトラクションなど、受動的な体験に応用が考えられるとのこと。
(Leg-jack: generation of the sensation of walking by electrical and kinesthetic stimuli to the lower limbs / Hirofumi Kaneko(首都大学東京), Tomohiro Amemiya(NTTコミュニケーション科学基礎研究所), Vibol Yem(首都大学東京), Yasushi Ikei(首都大学東京), Koichi Hirota(電気通信大学), Michiteru Kitazaki(豊橋技術科学大学))
もしも人間にエラがあったら……?
[wc_row][wc_column size=”one-half” position=”first”]
[/wc_column][wc_column size=”one-half” position=”last”]
[/wc_column][/wc_row]
電気通信大学 野嶋研究室の学生による、エラ呼吸体験システムです。ストロー状の呼吸センサが体験者の肺呼吸を検知し、呼吸のリズムに合わせてモーターが作動、ヘッドセット下部に取り付けられた羽根のような部分が回転し、頬の近辺にペタペタと触覚が提示されます。触覚提示用の羽根の裏には「冷えピタ」が貼られており、ペタペタ張り付く感じと冷覚が味わえます。
さらに同時に、さながらエラ呼吸によって酸素を含んだ水が入り込んできたかのように、喉元にもゴクッとした触覚が提示されます。
筆者の体験時にはデバイスが本調子ではなく、取り急ぎ復旧したものでした。フルセットのシステムがどのような感覚かはわかりませんが、頬がパタパタと動く感覚を体験した時、自分の身体に今何が起きているのかうまく飲み込めない状態になりました。自分は魚なのか?今呼吸に使っている器官はエラなのか……?
(Emerging Technologiesのティザーで流れていた展示紹介。このデバイスを装着することで体験する)
開発者自身も「エラ呼吸は誰も体験したことがない。エラ呼吸をそのまま模した五感提示システムは作ったが、まだ納得感が少ない。ありえない感覚に対していかにリアリティを生起させるかが難しい」と語っています。今後はさらに、(体験としての)エラのリアリティを追求していくとのこと。
今後のシステムがさらに進化し、まだ得たことのない感覚を味わえる装置となること期待しています。
(Gill+Man: breathing through gills experience system / Izumi Mizoguchi, Takahiro Ando, Mizuki Nagano, Ryota Shijo, Sho Sakurai, Koichi Hirota, Takuya Nojima(電気通信大学))
手首への触覚提示
[wc_row][wc_column size=”one-half” position=”first”]
[/wc_column][wc_column size=”one-half” position=”last”]
[/wc_column][/wc_row]
手を使ったインタラクションにおいて、リアリティを高めるために触覚ディスプレイが欲しい、けれど手のひらは何も装着せずに自由にしておきたい……。そうした問題を解決するために考案されたのが、この「Hap-Link」。指がバーチャル環境で感じる(はずの)触覚を、手首にフィードバックして代わりに感じさせるためのシステムです。電気通信大学・梶本研究室のプロジェクト。来場者からの投票で最も人気だったデモになります。
手首に取り付けたデバイスは、手首の皮膚を圧迫する強さを変えられる他、回転によって皮膚を左右に引っ張ることができます。この圧迫と引っ張りからくる摩擦によって、擬似的に触覚や重みを表現するという仕組みです。
「事故などで指を失った人でも、このデバイスを用いればバーチャルな指で触覚の伴ったインタラクションができるかもしれない」と開発者は語っていました。
(Hap-Link : Wearable Haptic Device on the Forearm that Presents Haptics Sensations Corresponding to the Fingers / Taha Moriyama, Nishi Ayaka, Takuto Nakamura, Vibol Yem, Hiroyuk Kajimoto(電気通信大学))
指先の触覚を顔面に提示
上記「Hap-Link」同様、電気通信大学 梶本研究室のプロジェクト。「Hap-Link」と同じく手に何も装着することなく、指先が感じる(はずの)触覚提示を行うシステムです。この「Haptopus」は、VRヘッドセットに組み込める(≒ヘッドセット以外の外部デバイスを必要としない)システムになっています。
[wc_row][wc_column size=”one-half” position=”first”]
[/wc_column][wc_column size=”one-half” position=”last”]
[/wc_column][/wc_row]
体験ブースでは、吸盤の数が少ない簡易版を体験することができました。
ヘッドセットに手の動きを検知するLeapMotionが取り付けられています。バーチャル環境で何かを指先で突いたり握ったりすると、その指に対応した吸盤が体験者の顔面を吸い上げます。人の触覚センサは特定の条件下において「吸引されているのに押されているように感じる」という性質があります。この錯覚を利用して、指先にものが触れたなどの感覚を、指の代わりに顔に感じさせようという試みです。
総務省 異能vasionにも採択されている、失禁体験装置でお馴染みの亀岡嵩幸氏が進めている研究です。
(Haptopus: haptic VR experience using suction mechanism embedded in head-mounted display / Takayuki Kameoka, Yuki Kon, Hiroyuki Kajimoto(電気通信大学))
顔を殴られる感覚をVRで再現
National Chiao Tung University(国立交通大学)らによる研究。VRヘッドセットのバンドをモーターの回転で巻き取ることで長さを調節し、ヘッドセットの顔への圧迫度合いを調節することができます。
[wc_row][wc_column size=”one-half” position=”first”]
[/wc_column][wc_column size=”one-half” position=”last”]
[/wc_column][/wc_row]
体験ブースでは、ボクサーから顔面パンチを受けるデモ、海中を泳いで顔に水を受ける感覚を味わうデモの2種類を体験できました。
ボクサーの方はパンチの瞬間に、海中のデモは水をかき分けて前に進んだ瞬間に、それぞれ然るべき速さ・強さでヘッドセットのバンドを締め上げ、徐々に緩めます。ヘッドセットが顔にギュッと押し付けられて圧迫を感じ、徐々にそれが緩んでいくという訳です。またヘッドセットには温度提示デバイスも装着されており、顔面を殴られた瞬間は熱さを、海を泳いだ時は冷たさを感じました。
パンチの瞬間に、想像していたより強い「殴られた感」と、微かに痛みを感じる程度の熱が提示され、非常に驚きました。デバイスは仰々しいので気軽に使うことはできませんが、感覚のリアリティはなかなかです。
(FacePush: Experiencing Pressure Forces on Face with HMDs / Hong-Yu Chang, Wen-Jie Tseng, Chia-En Tsai, Hsin-Yu Chen, Roshan Lalintha Peiris*, Liwei Chan(*慶應義塾大学、他 National Chiao Tung University))
画像から触覚データを生成
[wc_row][wc_column size=”one-half” position=”first”]
[/wc_column][wc_column size=”one-half” position=”last”]
[/wc_column][/wc_row]
東京大学らによる、物質の表面の画像やパラメータから誰でも触覚刺激を生成できるシステム。触覚を再現する際、振動子を使って振動パターンを提示する手法はよく使われます。任天堂スイッチのコントローラーの「HD振動」などに代表されるように、近年様々なコントローラーに振動が取り入れられています。
しかしコンテンツ制作者側の問題として、「木の表面を擦る感じ」「石を叩く感じ」など、いちいち実現したい触覚ごとに、個別に振動パターンを用意する必要があり、素材の数だけ手間がかかってしまいます。
この「TactGAN」という研究では物体の表面画像を入力するだけで、事前に学習したモデルが適切な振動パターンを生成してくれるのです。また例えば「石が30%、木が70%」など、属性を数値で指定して生成することもできます。
(TactGAN: vibrotactile designing driven by GAN-based automatic generation Yuki Ban(東京大学), Yusuke Ujitoko(日立))
磁石で簡単、触覚デバイスの可能性
マグネットシートを使って簡単に触覚インターフェースを作れる手法の展示。マグネットシートは、専用の着磁器にマグネットシートを通すと磁性パターンが書き換わり、シートがディスプレイと擦れる時の触感を変えることができます。また十分に薄ければシート越しでも指を検出することができるので、タッチディスプレイに貼り付けて使うことができます。
このマグネットシートを使えば、タブレット端末の何もない平面などに、ボタンやスライダー、ダイアルなどの物理インターフェースを作ることが可能です。NTTコミュニケーション科学基礎研究所の安謙太郎氏が一人で行なっているプロジェクトです。
(Magnetact: magnetic-sheet-based haptic interfaces for touch devices Kentaro Yasu(NTTコミュニケーション科学基礎研究所)