[尾下研究室][研究テーマ] | [English] |
本論文では、モーションキャプチャ機器を入力として用いた、第3者視点型の仮想現実アプリケーションにおける、アバター制御のフレームワークを提案する (Figure 1).。モーションキャプチャ機器を入力として用いることで、利用者はアバターの全身の動きを自在に制御できる。さらに、アバターの視点から見た画像を表示する第1者型視点(first-person view)ではなく、外部から見た画像を表示する第3者型視点(third-person view)を用いることで、利用者は自分のアバターの動きや、アバターと他のキャラクタ・物体との相互作用を、視覚的に把握することができる。
Figure 1. 開発システム
しかし、このような仮想現実型アプリケーションには、いくつかの問題がある。1つ目は、仮想空間内でのアバターが他のキャラクタや物体と接触しても、接触を利用者にフィードバックすることができないため、利用者がこのような相互作用を把握することが困難である、という点である。2つ目は、利用者がモーションキャプチャ機器を使用する空間は、仮想空間に比べて非常に狭いため、アバターに仮想空間内を自在に動き回らせることが困難である、という点である。
本研究では、このような問題を同時に解決する、新しいフレームワークを提案する。本フレームワークでは、追従型の動作制御を用いて、アバターを制御する。アバターは、モーションキャプチャ機器からの入力姿勢と、システムが選択する動作データの、両方に追従するように制御される (Figure 2)。
通常、アバターは、入力姿勢を追従するよう制御される。しかし、仮想空間内でアバターに衝撃が加えられると、本システムは衝撃に応じた適切なリアクション動作をデータベースから検索し、その動作データに追従するようにアバターを制御する。これにより、利用者は、アバターのリアクションから、仮想空間内での衝撃を視覚的に把握できる。このとき、入力姿勢と動作データの追従のウェイトを制御することで、衝撃に応じたリアクションを実行しつつ、ある程度は入力姿勢に応じても動作するような、制御を実現できる。
また、利用者が足踏みをすると、システムは適切な歩行動作を生成し、アバターはその歩行動作を追従する (Figure 3)。このとき、足踏みに応じて、歩行動作の速度や歩行の向きを制御することで、利用者は、アバターを仮想空間内で自在に動き回らせることができる。
本フレームワークを用いることで、システムは、利用者の動作と生成動作の両方を用いた制御を実現できる。本論文では、我々の開発した簡易光学式モーションキャプチャを用いた、プロトタイプシステムを紹介する。
Figure 2. 追従制御。通常、アバターは、利用者の動作(Input Motion)を追従するよう制御される。しかし、衝撃に応じたリアクションや足踏みに応じた歩行動作などが必要とされるときには、アバターは入力姿勢とシステムが生成した動作データの両方を追従する。両方の追従制御のウェイトを必要に応じて調整することで、両方の制御の間をなめらかに遷移し、両立させることが可能となる。 | Figure 3. 歩行動作のインターフェース. (a) 通常、アバターは、利用者の動きに従って動作する。(b) しかし、利用者が足踏みをした場合は、アバターは歩行動作を行う。 |