8
Vive HMDでのSMIアイトラッキング、ハンズオン

今週初めの発表以来、SMIの視線追跡技術を搭載したViveヘッドセットを実際に試してみたくて待ち遠しかったです。GDCでは、ValveのショーケースエリアでSMIと面会し、両社が共同で開発したものを実際に見る機会を得ました。

ボルトで固定するのではなく、埋め込み式

SMIのアイトラッカーがViveにどのように実装されているかを理解することが重要です。ボルトで固定されたり、不格好な方法で取り付けられたりするのではなく、TobiiのEyeChipと同様に、ヘッドセットに埋め込まれています

さらに、内部のSMIハードウェアが1年前のMobile World Congressで見たものと全く同じだと知り、正直驚きました。小さなPCBと、その先端に小さなカメラが付いた2本の細いケーブルだけで、250Hzの周波数を実現し、実装コストも10ドル以下です。

いつもと同じ

いつもと同じ

HMD 内部の写真を撮ることは許可されていませんでしたが、レンズが照明器具で囲まれていることは確認できました。これは、視線追跡装置がユーザーの目をはっきりと観察するために必要なものです。

Tobii の視線追跡機能を備えた Vive HMD にも同様のタイプの照明器具がありましたが、現時点では SMI のバージョンに同じ照明器具が搭載されていたのか、それとも似たような照明器具が搭載されていただけなのかは確認できません

Vive with Tobii Eye Tracking: レンズの周りのイルミネーターリングに注目

Vive with Tobii Eye Tracking: レンズの周りのイルミネーターリングに注目

推測するに、どちらも同じでしょう。ValveかHTCのどちらかが、どちらか一方のイルミネーターリングの開発に協力して、それで終わりにするのは理にかなっています。重要なのは照明とカメラです。照明は被写体(この場合はあなたの眼球)を照らし、カメラがより良い写真を撮ることができるようにします。被写体が十分に明るくなれば、どちらのカメラで撮影するかはそれほど重要ではなくなります。今回の場合は、SMIのカメラかTobiiのカメラか、どちらかです。

この記事を最初に公開して以来、SMIは独自のLEDイルミネーターリングを製造したことを確認しました。SMIの担当者はさらに、このようなリングの作り方には限りがあるため、たとえTobiiとSMIが異なるイルミネーターリングを製造したとしても、おそらくほぼ同じものになるだろうと示唆しました。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

較正

SMIの視線追跡機能は素早く簡単に調整できるように設計されていますが、実際にキャリブレーションを行うまでに少し苦労しました。必要なのは、約5秒間、浮かんでいる点を目で追うだけです。しかし、最初のキャリブレーション後、視線の向きを示すピンクの点があちこち飛び回っていました。何度か試してみましたが、うまくいきませんでした。

結局、問題は私のメガネでした。特に、メガネが曇ってしまう時です。VRでは、視力の悪い私たちにとってメガネの着用は常に問題になります。どんなHMDでもメガネはフィットしませんが、ほとんどの場合は問題なくフィットします。少し違和感はありますが、コンタクトレンズに切り替えるか、(度数によっては)VR体験の一部が多少ぼやけることを受け入れるしかありません。
でも、メガネが曇ってしまうこともあります。

たいていの場合、不便なことを選んで、そのまま受け入れるしかないんです。どうやら、曇ったメガネはSMIの視線追跡装置を混乱させるようです。ヘッドセットを外し、メガネを外し、ヘッドセットを装着し直してキャリブレーションを実行したら、なんと、ちゃんと動きました。

入力と社会経験

SMI搭載のViveを装着すると、いくつかのデモを体験することができました。これらのデモは、視線追跡を選択ツールとして活用する方法、VR内でのソーシャルインタラクションを強化する方法、そして中心窩レンダリングを実現する方法などを実演するものでした。

最初のデモでは、ランプがいくつかとCPUクーラーのパーツが散らばった机が置かれた仮想の部屋に案内されました。そしてCPUクーラーの組み立てを任されましたが、思ったより簡単でした。パーツは滑稽なほど大きく、実際の「組み立て」は、各パーツを順番に持ち上げて互いに接触させるだけで、私たちが見慣れているビデオゲームの仕組みとほぼ同じでした。しかし、このデモの素晴らしい点は、各パーツを見つめるだけでハイライト表示され、より直感的に手を伸ばして目的のアイテムを掴むことができたことです。

部屋にはちょっとした仕掛けもありました。ランプの一つを見て、コントローラーのボタンをクリックするだけで点灯・消灯できました。これは楽しく、そして驚くほど直感的な入力方法です。何かを見ると、視線追跡装置があなたの視線を認識し、それが「マーク」または「ハイライト」されます。そして、ボタンをクリックしたり、移動したり、その他様々なインタラクションが可能です。  

そのデモでは、他に2人が参加しました。私たちは皆、漫画風のアバターで表現され、机の周りに立っていました。しかし、視線トラッキング、頭部トラッキング、そしてコントローラーを介した手トラッキングの組み合わせにより、それぞれに個性が与えられていました。

これは、物理的に近くにいない人々を同じ仮想空間に引き込むVRの威力をさらに再認識させるものでした。私と一緒に参加した二人のうち一人は物理的にほんの数フィートしか離れておらず、もう一人はシアトルにいました。誰がどこにいるのか、全く分かりませんでした。遅延も映像の劣化も、何もありませんでした。

SMI技術のおかげで、仮想的なアイコンタクトを実現できました。ソーシャルVRにおいて、これがどれほど重要であるかは、いくら強調してもし過ぎることはありません。アバターを使って相手の手や頭の動きを感知するのは簡単ですが、実際にアイコンタクトができるとなると、全く別の話です。

現実の社会的なやり取りを考えてみてください。アイコンタクトは多くのことを物語ります。全くアイコンタクトをしない人もいれば、やりすぎる人もいれば、視線の動きが少しぎこちない人もいれば、もっと話しやすい相手を探して肩越しにこちらを見ている人もいます。ヘッドセットのアイトラッキングとソーシャルVR環境があれば、これらすべてを知ることができます。

次のデモでは、その感覚がさらに強まりました。同じ二人の仲間と部屋に入り、テーブルを囲んでカードゲームをすることになったのです。この環境では、立っていても座っていても構いません。仮想空間の椅子に案内されると、現実世界の誰かが私に物理的な椅子を渡してきて座らせてくれました。(正直言って、このプロセスは少し奇妙でした。)

席に着くと、瞬きをしたり、眉を上げたり、目を寄せたり、その他の動作をアバターに反映させてくれました。

中心窩レンダリング

最後のデモでは、暗い部屋に立つと、四方八方に無限に広がる浮遊する立方体のグリッドが目の前に現れました。立方体は半透明で虹色に輝いていました。デモを担当していた誰かが、フォービエイテッド・レンダリングのオンオフを切り替えていました。私は周辺視野で起こっていることに集中することでシステムを騙そうとしました。というのも、フォービエイテッド・レンダリングは周辺視野の画像を完全にレンダリングするわけではないので、端を見ればすぐにわかるからです。  

でも、ちょっと覗き見ることはできませんでした。というのも、まさにそれがアイトラッキングの仕組みだからです。結論:少なくともこのデモでは、SMIのVive内中心窩レンダリングは宣伝通りの働きをしています。

SMIは1年で大きく成長しました。私たちが初めて同社とその技術に出会ったのは、Mobile World Congressのイベントでした。大きなボールルームに小さなテーブルが設けられ、メイン会場にブースを出していない他の小規模な企業がメディアに自社製品をアピールするために集まっていました。 

GDCでは、SMIがValveの特別展示エリアで、特別に改造されたViveに搭載された技術を披露しました。SMIのアイトラッカーを搭載したヘッドセットがいつ発売されるかは不明ですが、おそらく年末頃になるでしょう。

更新、2017 年 3 月 3 日午後 4 時 28 分 (太平洋時間): SMI からの返答を受けて、照明器具に関するメモを追加しました。

更新、2017年3月4日午前8時35分(太平洋標準時):この記事の以前のバージョンでは、キャリブレーションの問題について誤って記載されていました。SMIから連絡があり、問題はメガネではなく、メガネが曇っていたことにあると説明がありました。

セス・コラナーは以前、トムズ・ハードウェアのニュースディレクターを務めていました。キーボード、バーチャルリアリティ、ウェアラブル機器を中心としたテクノロジーニュースを担当していました。