目かくし状態でどうやってゲームを操作するか?
家庭用ゲーム機から続く既存のゲームでは、伝統的にゲームパッドなどのコントローラーが用いられてきた。PCゲームの場合はマウスやキーボードで操作することもある。一方、VRゲームに関しては、Oculus Riftなどを被った場合、手元が見えない状態での操作を強いられるため、操作が困難だったり、体験するために付き添いが必要だったりといった問題がある。
次のパートでは、VRゲームには、どんな入力インターフェースを用いるべきか、パネリストが各地でコンテンツを展示した経験から、様々な案が提示された。
石井氏は、普段ゲームをしない人にとって、Oculus Riftをかぶり、周りが見えない状態でコントローラーの操作をすることは非常に困難だという。代わりのインターフェースとして考えられるのは、KinectやLeap Motionなど、センサーを用いて身振り手振りで操作する入力。これなら直感的に操作することが可能そうだ。しかし実際は、急に「このように動かしてほしい」と指示するだけでは、その通りにできる人は少なく、うまく誘導する必要がある、という。石井氏が実践しているのは、Oculus Rift自体のセンサーだけで完結するような入力だ。Oculus Riftだけでも、前かがみになると加速し、後ろ向きにいくと減速する、顔の動きで上下左右に移動する、といった直感的な動きで操作が可能になるとのことだ。
井口氏は、KinectとOculus Riftを組み合わせたVR環境を作った経験から、Kinectの可能性と課題について次のように話した。「Oculus Riftを被って下を向いた時に自分の身体モデルが見えるゲームはよくあるが、そのモデルを、Kinectを使って自分の体と同じように動かせる感覚があるとリアリティがある。ただし、Kinectは遅延が長く、指の細かい動きを取りきれない問題があり、細かい操作や、ぴったり体についていくるところまではまだ足りない」(井口氏)。
コントローラーよる入力は難しいのだろうか。桜花氏は、実際にOculus Riftとコントローラーを用いたコンテンツを、数百名の人に遊んでもらった経験から、まずOculus Riftを被って、目隠し状態でコントローラーを探してもらうことが難しいことがわかった。さらに、ユーザーの体験を手伝う役割を担った人が、コントローラーを手渡しし、指の位置を教えてあげないと、ゲームパッドを握ることすらできない問題が生じたという。そこで、自分の手に、ゲームパッドやボタンを括りつけるような形がよいのではと提示した「コクヨの『黒曜石』という、パワーポイント用の指輪型の無線ボタンを使うと、どこを見てようが、目が見えなかろうが、ここの位置にボタンがあることを伝えやすい。何かに使っていきたい」と桜花氏。
近藤氏は、Leap Motionに期待をしている。「Leap Motionは指のモーションを認識し、VR空間に自分の手を出したりすることが可能。Oculus Riftの入力はLeap Motionが標準になるのでは」と言う。
井口氏は、ドライブゲーム、フライトシュミレーションなどのジャンルが決まっているものであれば、ハンドルなど、本物の形をした操作デバイスを使うと最高に快適に操作できるとする。ハンドルの動きにあわせて演出も移動するようにすれば、体も帰属している感が得られる。
VR空間で触感を得ることは可能か
続いて渡邉氏が、入力だけでなくフィードバックに関する問題提起を行った。既存のゲームには、例えば攻撃が当たった際にコントローラーが振動するものがあるが、このように、ゲームの場面に応じて振動や抵抗感を与える機能である「フォースフィードバック」については、どんな可能性があるのだろうか。
桜花氏は「理想をいえば、殴ったり物に当たったりしたら、その反動が手に返ってきてほしい。ただ、ロボットの研究者に、その仕組みを実現するための費用について聞いてみたら、1000万円と言われ……」と言う。
近藤氏は、Oculus Riftで目の前にキャラクターを出すと、まず触れて確かめようとするユーザーの行為に着目し、VR上の初音ミクと実際に握手ができる「Miku Miku Akushu」というコンテンツを制作した。Novint Falconというデバイスに初音ミクの手の触感や重量をシミュレーションさせ、Oculus RiftをかぶってNovint Falconを握ると、初音ミクとリアルに握手した感覚になるという。「触覚はフィードバックにおいてすごく重要。Leap Motionを使えば、空間にタッチすることができ、まるでSFの世界のようだ。しかし、スカスカして、押したのか、押してないのかわからない。超音波や振動など、ちょっとしたフィードバックがあるといい」と近藤氏は言う。
さらに、井口氏から「腕をトラッキングして、自分の腕の上にボタンを出し、それを押すようにすればいいのでは」、伊藤氏からは「机の上で巻物を開くように手を動かすと、インターフェースが出てきて、それをタッチするような仕組みにできると、指に押した感触が伝わっていいのでは」といった、Leap Motionと、現実に身の回りにあるものを利用して、触覚を得るようなインターフェースのあり方が提案された。
続いて、自分が一番理想的だと感じる、未来の入力インターフェースに関する問いかけがなされた。
伊藤氏は「全身触覚のフィードバックがあれば理想」、石井氏は「手の刺激と重力、さらに風でも匂いでも、触覚に訴えかけるなど、既存のものの組み合わせで、コストパフォーマンスよく実現できるのでは」と答えた。
井口氏は、コンピュータ制御できる扇風機がお手軽だと答える。サーキュレーターを用いて、風を感じることでリアルが増す作品もあるが、自動で制御できるようになれば理想、という。
入力インターフェースには改善の余地がある。現在のところはこれと言った理想的なものがないにせよ、Leap Motionや既存のものの組み合わせで、工夫できる部分が大きそうだ。