ほんの数年前まで、実用的なVRは高価な学術研究室や秘密軍事施設といった限られた空間に限られていました。しかし、極めて安価なモバイルパネルを高品質なVRに転用できることが発見されると、ヘッドマウントディスプレイ(HMD)、スマートフォンを収納するクラムシェル型デバイス、そしてコントローラーが次々と登場しました。
これから、どのようなサービスがあるのか、そしてそれらがどのように結びついているのかを簡単にまとめ、すべてを整理していきます。いくつかの用語を定義し、事実と虚構を少し区別します。そして最後に、これらのサービスが文字通り現実のものとなった時、どのように比較すればいいのか、よりよく理解できるようになることを願っています。
面前
誰もが目指しているのは、まさにこれです。目の前に現れた環境に自分がいると確信できる境地です。現実に忠実な表現(フォトリアリズム)を求めるのではなく、仮想の棚に立った瞬間、心の中では「前に出ても大丈夫」と言っているのに、体は全く異なる反応を示すことこそが重要なのです。
詳細: 価格に見合った最高のグラフィックカード
詳細: すべてのグラフィックコンテンツ
視野(FOV)
消費者向けVRにおける最大のブレークスルーは、視野角(FOV)、つまり実際の視聴可能範囲の拡大と言えるでしょう。私たちは平均して約170度の視野角を自然に見ることができます。Oculus RiftのKickstarterキャンペーン以前は、Vuzix VR920やSony HMZ-T1といった消費者向けHMDのほとんどが32度から45度の視野角でした。こうしたわずかな視野角は、まるで目の前に大画面がある映画館にいるかのような体験をもたらすとよく宣伝されていましたが、実際にはそうはなりませんでした。
対照的に、現代のコンシューマーグレードのHMDプロトタイプは90度から120度の視野角しか表示しません。これは私たちが自然に見ることができる170度には及びませんが、ソニーのProject MorpheusやOculusの待望のコンシューマー向け製品(CV1)が示すように、100度以上の視野角があればVR体験をリアルにするには十分です。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
レイテンシー
レイテンシーとは、頭を動かしてから画面に物理的な更新が反映されるまでの遅延を指します。AMDのチーフゲーミングサイエンティストであるリチャード・ハディ氏によると、インタラクティブなゲームでは11ミリ秒以下のレイテンシーが必須ですが、360度VR動画での動きであれば20ミリ秒でも許容範囲です。NVIDIAのドキュメントやインタビューでは20ミリ秒を推奨していますが、これはハードウェアの性能を示すものではなく、あくまでベンチマークです。
ヘッドトラッキング
ヘッドトラッキングには 2 つのカテゴリがあります。
方向に基づくヘッドトラッキングは最も基本的な形式で、頭の直接的な回転(左から右、上から下、そして時計の回転に似た回転)のみを検出します。現時点では、SamsungのGear VR、ImmersiON-VReliaのGO HMD、Google Cardboard、そして残りのモバイルVRデバイスのほとんど(すべてではないにしても)などのモバイル製品で利用可能な唯一のヘッドトラッキング形式です。このタイプのヘッドトラッキングは、Oculus Rift DK1でも使用されていました。
ヘッドトラッキングのもう1つの形式である位置トラッキングでは、頭の回転だけでなく、体の動きやそれに伴う移動もトラッキングします。これは手足ではなく、体に対するHMDの位置、例えば左右に揺れたり、前にひざまずいたりした動きをトラッキングします。
位置追跡は複数の方法で実現されます。
- Oculus Rift DK2とCrescent Bay、そして新たにCV1が搭載する赤外線カメラは、磁力計とジャイロスコープを組み合わせたものです。カメラはHMD上の反射物を捉え、その位置から位置データを推定します。Oculusはこのトラッキングシステムを「Constellation(コンステレーション)」と呼んでいます。
- Sixense 社は、磁場を使用して物体の位置を検出する Samsung Gear VR 用の実験的なアドオンを開発し、これにより、それまで位置追跡機能を備えていなかったデバイス向けにアドホック位置追跡機能を開発することに成功しました。
- Vrvana Totem プロトタイプVrvanaは2台のカメラを使用し、室内のマーカーや構造物を追跡することでHMDの物理的な位置を決定します。追跡機能はまだ改良の余地がありますが、E3ではデュアルカメラを搭載し、マーカーレス環境でも動作するプロトタイプが公開されました。
- HTC/Valve の Vive HMD は、「Lighthouse」テクノロジーを使用します (詳細は後述)。
他にも選択肢はありますが、これらは一般的な例の一部にすぎません。
解決
ご注意ください!宣伝されている解像度には、見た目以上の意味があります(お分かりですか?)。現在、市場には2種類のHMDが販売されています。最も一般的なタイプは、1枚のLCDパネルの解像度が真ん中で半分に分割されています。
そのため、ソニーのPlayStation VR(PSVR)の解像度は1920x1080と謳われていますが、実際には片目あたり960x1080ピクセルです。Oculus Rift DK1(片目あたり1280x800または640x800)とDK2(片目あたり1920x1080または960x1080)は同じ原理で動作します。
ImmersiON-VReliaなどの他のシステムは、1枚ではなく2枚のLCDパネルを使用することで、より高い解像度を実現しようとしています。つまり、1080pパネルは片目あたり1920x1080の解像度となります。Oculus CV1の解像度は2160x1200、つまりパネル1枚あたり1080x1200です。
入力
VRのディスプレイ面への注目が高まる一方で、GDC、そしてその後のE3まで、入力オプションは驚くほど不足していました。ここで言う「入力」とは、VRとインタラクションのために特別に設計されたコントローラーのことです。
Sixense社がSamsung Gear VRに磁場を用いた位置トラッキング機能を追加したのと同様に、同社のSTEMワイヤレスコントローラーも磁場をベースにしています。これは数十年前のVR CAVEで使用されていた旧式の技術です。CAVE(Cave Automatic Virtual Environment)とは、基本的に投影型ディスプレイ、あるいは稀に大型ディスプレイパネルをベースにした仮想現実空間です。CAVEは最小構成で2つの壁と1つの床で構成されますが、大規模なものでは6つの壁で囲まれるような高度なものまで存在します。CAVEはシミュレーションや研究に最も多く利用されています。
仮想現実CAVEにおける初期のインタラクションは、磁気検出式のジェスチャーデバイスとコントローラーでした。問題は、CAVEは通常、大きな金属製のフレームをベースとしており、スーパーマンがクリプトナイトを嫌うのと同様に、磁場は金属にうまく反応しないという点です。そのため、CAVEは最終的に光学カメラトラッキングに焦点を絞ることになりました。
Sixense社のCEO、アミール・ルービン氏によると、同社の新しいSTEMコントローラーは、金属フレームと磁場の相互作用に伴う課題を克服したとのことです。各STEMコンポーネントに内蔵された慣性計測ユニット(IMU)の支援により、Sixense社は磁場とIMU間のデータを相関させ、一貫した精度を維持しています。私たちが確認したすべてのデモにおいて、この技術は良好に機能しました。
これが最終的な方向性かどうかは不明ですが、Oculus VRが提供しているのはOculus Touch、つまりハーフムーンコントローラーです。これは、CV1やCrescent Bayに既に搭載されているOculusの赤外線トラッキング機能と、装着者の握り方やジェスチャーを検知するように設計されたコントローラーを組み合わせたものです。ユーザーの指や握り方を正確に特定しようとするグローブベースの技術とは異なり、このコントローラーは、デバイスの持ち方に関連する様々なボタンや静電容量センサーのオン/オフ状態を検出することで、同様の操作感を再現します。私自身は最初は使いこなすのに苦労しましたが、他のユーザーは使いこなすのが簡単だと感じており、標準的なXboxコントローラー単体よりもVRにとってはるかに優れた選択肢であることは間違いありません。
HTCとValveは、Vive HMDとコントローラーにレーザービーム方式を採用しました。「Lighthouse」と呼ばれるこの技術では、部屋の両端の天井にレーザーを発するベースステーションを2つ設置します。HMDとコントローラーは、ノジュールセンサーで覆われています。
ノジュールセンサーは、HMDやデバイス、あるいは追跡対象の形状に沿って戦略的に配置されます。これらのセンサー上でレーザーが点滅すると、ライトハウスシステムはレーザーの点滅タイミングに基づいて、デバイスがベースステーションに対してどこにどのように配置されているかを計算します。ノジュールの配置に関する知識と、レーザーが点滅した際のノジュールの位置検出を組み合わせることで、瞬時のヘッドトラッキングと入力制御に必要な情報が得られます。
E3で「ウォーキング・デッド」のVR体験を実現するために、Starbreeze Studiosは実験的なStarVR HMDプロトタイプを開発しました。このプロトタイプは、2.5Kディスプレイパネル2枚、フレネルレンズ、そして驚異の210度の視野角を誇ります。同社のトラッキング技術は、HMDとトラッキングが必要なオブジェクトに貼り付けられた「フィデューシャリーマーカー」と呼ばれる認識可能なパターンによって実現されています。外部カメラがこれらのマーカーの位置を検出し、HMDとオブジェクトの位置を推定します。
スターブリーズ・スタジオの最高技術責任者エマニュエル・マルケス氏は、同社はHMDの解像度を8Kまで高めたいと考えており、今後5年以内にそれが可能になると予想していると述べた。
ANTVRの先進的なプロトタイプは全く異なる仕組みで動作します。この場合、床には再帰反射材が点在しており、HMDの下向きのオンボードカメラがマットを位置トラッキングの基準として利用します。
SonyのMoveプラットフォームは、PlayStation EyeカメラとMoveハンドヘルドコントローラーで構成されています。コントローラーには、動的に色が変化するオーブが搭載されています。この色の変化は、部屋の背景色の中で目立つようにし、カメラがコントローラーをスムーズに追跡できるようにするために不可欠です。Moveコントローラーには、コントローラーの回転を検知する加速度センサーと速度センサーも搭載されています。これらの要素を組み合わせることで、非常に高精度なコントローラーが実現されています。
しかし、本当の勝利は、この PlayStation Move テクノロジーが元々は楽しいビデオゲームインタラクションの方法として開発されたにも関わらず、低遅延と位置ヘッドトラッキングの基準をすべて満たしていたため、ソニーの PSVR のコアヘッドトラッキングテクノロジーとしても簡単に再利用できたことです。
しかし、重要なのは手に持つものだけではありません。指先のあらゆるニュアンスを捉えるハンドジェスチャーコントローラーもあります。
Leap Motionは小さなチョコレートバーほどの大きさで、3つの赤外線LEDを備えた2台のカメラを搭載しています。カメラは赤外線の反射光を捉え、ソフトウェアを用いて視野内のマップを作成します。Leap Motionの最新ソフトウェアには、片方の手でもう片方の手を覆っている場合でも、手の骨格トラッキングを補正する技術も搭載されています。
Leap Motion はデバイスの前方約 2 フィート以内の動きを追跡し、Razer はこれを同社の HMD によるハンド トラッキング用の OSVR プラットフォームへの公式仕様追加として使用しています。
「fovea」(焦点を合わせるための目の部分)という言葉に由来する社名を持つFOVEは、視線追跡機能を備えたHMDを開発しており、視線の位置によってインターフェースを制御するデモを実施しました。この技術は、見ているものに応じて被写界深度の見え方を調整することもできます。
前述の通り、バーチャルリアリティ(VR)における大きな課題は、必要なフレームレートと超低遅延を実現できる十分な処理能力を持つことです。臨場感を表現するには広い視野角が必要ですが、画像全体の高解像度を得るには必ずしも必要ではありません。なぜなら、人間は周辺視野で細かいディテールを自然に見ることができないからです。視線追跡は「中心窩レンダリング」の可能性を開きます。中心窩レンダリングでは、画面上で焦点を合わせている部分にグラフィックパワーの大部分が費やされ、そもそも実際には見ることのできない周辺視野にははるかに少ないパワーしか必要とされません。つまり、視線追跡は、必要なグラフィックだけを効率的にレンダリングする方法への扉を開くのです。
E3 2015でMeant to be Seenが報じたように、FOVEはHMD開発キットの出荷までに中心窩レンダリングを実現する可能性があります。また、同社はLighthouseトラッキング候補としてValveと関係を築いています(Valveは、資格のあるサードパーティおよびデバイスにトラッキング技術のライセンス供与を行っています)。
もう一つ注目すべき選択肢があります。Sulon Technologiesは、複合現実(MR)/拡張現実(AR)ヘッドマウントディスプレイを開発しています。これはMagic LeapやMicrosoftのHoloLensとほぼ同等の性能を誇り、同社のマーケティングビデオも同様に印象的です。しかし、誰もが最も期待しているのは、その最終成果です。
Sulon Cortexヘッドマウントディスプレイは、室内を撮影する2台のカメラを搭載しています。ユニットに搭載されたコンピューターまたはスマートフォンは、ユーザーが見ているものや、その映像とどのようにインタラクションしているかに基づいて、デジタルレイヤーを追加します。その結果、現実世界とデジタル世界が融合した拡張現実(AR)体験が実現します。
これまで見てきた改訂版はどれも、マーケティング動画と比較すると明らかに初期段階の技術ですが、Sulon Technologiesのような企業は正しい方向に向かっています。Sulon Cortexに関する私たちの経験について詳しくは、こちらをご覧ください。
移動
臨場感を実現する上で大きな課題となるのは、あらゆる身体動作をリアルに体験できる能力です。もし身体と心が別の言語を話していたら、その幻想は壊れてしまうのも同然です。HTC/ValveはViveが最大15平方フィート(1.4平方メートル)の広さの空間で動作すると主張しており、OculusのCV1デモではその約3分の1の広さが披露されました。
Virtuix OmniとCyberith Virtualizerは、Kickstarterでデビューした2つの選択肢です。原理は同じです。滑りやすいプラットフォームに立ち、カメラ(Cyberith Virtualizer)または専用に装着するオーバーシューズに埋め込まれたセンサー(Virtuix Omniの場合)によって足の動きが追跡されます。どちらの例も自然なものではありませんが、どちらも使い方に慣れれば問題なく機能します。
もう一つの選択肢は、広い空間を用意して、そこで何とかやりくりすることです。ヘッドマウントディスプレイを装着して広い空間にいると、視界に映る映像に誘導されて、無意識のうちに円を描いて歩き回ってしまう可能性があります。例えば、HTC/Valve Viveは15×15インチの空間に対応するように設計されています。デバイスが部屋の境界線を認識し、ユーザーの物理的な位置を追跡し、境界線にぶつかる前に物語上の障害物を提示することは可能です。
Sulon Cortexの場合、部屋は事前に物理的にスキャンされており、デジタルウォールは物理的な壁と同じ空間に存在するように調整されています。床に物が散乱していない限り、周囲の物理的な世界が見えなくても、安全なVR環境を実現できます。
ここでは、ほとんど説明されることなく人々がよく口にする、派手だが重要な表現をいくつか紹介します。
持続性が低い
Oculus Rift DK1が市場に投入された際、既存のモバイルディスプレイにはVR関連の課題、つまりモーションブラーがあることがすぐに明らかになりました。DK1は「パーシステント」ディスプレイを採用しており、画像は常に表示されます。そのため、頭を動かすと画像が非常にぼやけてしまいます。これは、前のフレームのデータを見ているため、もはや頭の向きを反映していないためです。この不一致が、画像の軌跡を引き起こす可能性があります。
最新のOLEDパネルはリフレッシュレートが高くなっていますが、それだけでは問題を解決できません。低残像ディスプレイは、正しく配置されたフレームを表示し、すぐにオフにしてから、次のフレームの準備が整い次第表示することで動作します。Oculus Rift DK2以降、Sony PSVR、HTC Viveなどのソリューションでは、前の画像が完全に消去されるため、モーションブラーは発生しません。
この技術のトレードオフは、パネルの75Hzリフレッシュレート(リフレッシュレートによってはそれ以上)に対応するために、最低75フレーム/秒のフレームレートが必要になることです。コンテンツがこのフレームレートを達成できない場合、この技術は正常に動作しません。幸いなことに、解決策があります。
非同期タイムワープ
低残像ディスプレイを75Hzで動作させるには、75fpsを達成する必要があることは周知の事実です。問題は、現代のグラフィックカードでは60fpsにも満たないことが多いため、高解像度で75fpsを維持するのが難しいことです。立体3Dをサポートするには左右の視点が必要になることを考慮すると、グラフィックスを多用する展示デモが真冬のショールームの床をいかに熱くするかが明らかになります。
非同期タイムワープ(ATW)は、ゲームやアプリケーションがフレームレートを維持できない状況において、中間フレームを挿入することで、GPUがレンダリングできる範囲とディスプレイに表示する必要がある範囲のバランスをとる技術です。「ワープ」とは、実際の調整プロセスです。タイムワープは、レンダリングスレッドでシーンが作成された直後に発生した頭部の動きを補正することで、画像をディスプレイに送信する前にワープ(調整)します。これは、ユーザーの最新の頭部の位置を考慮して完成した画像をシフトする、ポストプロセス効果です。
タイムワープの限界は、調整がレンダリング完了後に行われるため、グラフィックカードから供給されるフレームが一定であることに依存している点です。コンピューターが他のタスクに気を取られて処理を中断すると、HMDに表示される情報が古くなりすぎて、不快感を引き起こす可能性があります。
非同期タイムワープは、グラフィックカードのレンダリングサイクルに依存しない別の処理スレッドで最新のヘッド位置を継続的に追跡することで、この問題を解決します。非同期スレッドは、垂直同期の前に、レンダリングスレッドによって完了した最新のフレームに最新情報を提供します。この方法により、タイムワープ単独の場合よりもレイテンシがさらに低減し、精度が向上します。
残念ながら、完璧なものなどありません。ATWはグラフィックカードの性能不足を補うために存在しますが、上記のように「ジャダー」、つまり画像がわずかに二重に表示されてしまう傾向があります。
追加のテクニックはあり、おそらくさらに増えるでしょうが、これらは私たちが最もよく耳にする主なテクニックです。
DirectXとOpenGLの正式な標準化が待たれる中、AMDとNvidiaは、自社のグラフィックカードによるインタラクションを改善するための暫定的な対策として、独自のSDKと技術を開発しました。その目的は、VR用途におけるレイテンシの削減とフレームレートの向上です。
リキッドVR
AMDのチーフゲーミングサイエンティスト、リチャード・ハディ氏によると、Liquid VRは独立したコードであり、Mantleプラットフォーム上で動作するという。MantleはAMD独自のAPIで、標準的なDirectX 11ルートと比較して、同社のアーキテクチャへのより深く、より高速なアクセスを提供するとハディ氏は主張する。
MantleとLiquid VRは、AMDの非同期演算エンジン(ACE)機能へのフルアクセスを提供します。GPUストリーム処理ユニットは、単一のコマンドを処理するためのスロットです。旧式のGPUでは、これらのコマンドはシーケンシャルに処理されていました。Radeon HD 7970は2048個のシェーダーを搭載していますが、GPUがビジー状態であっても、すべてのシェーダーがフルに活用されることはほとんどありません。ACEアーキテクチャは、異なるコマンドを同時にインターリーブし、これらのギャップを埋めることを可能にします。未使用のストリーム処理ユニットスロットが利用可能な場合、コマンドは必要に応じてパススルーされます。GPUは、グラフィックス処理を高速化しながらも、貴重な処理時間を犠牲にすることなく、演算タスクを処理できます。
CrossFire構成(マルチGPU)では、各グラフィックカードがフレームを交互に表示します。VR HMDで画像が複数のディスプレイに分割されている場合、この方法はうまく機能しません。Liquid VRは、各カードの役割を効果的に分割し、左目用に1つのGPU、右目用に1つのGPUを割り当てます。
AMDのAPIは、Oculus VRやRazerのOSVRプラットフォームのような別個のSDKを必要とせずに、HMDと直接通信することを可能にします。AMDはLiquid VRでOculus VRのサポートを披露していますが、これは非プロプライエタリ(AMD GPUに接続されたハードウェア向け)であり、同社は認定されたすべてのソリューションをサポートする予定です。
GDC でデモが行われていた一部のディスプレイでは AMD の 300 シリーズ GPU がひっそりと使用されていましたが、AMD は、新しいボードが以前のものを大幅にブランド変更したバージョンであるため、より高速な前世代のカードでも最新の VR コンテンツを実行できると考えています。
Nvidia ゲームワークス VR
NVIDIAのGameWorks VRは、正式なAPIというよりは、開発者がVR用途でGPUを最大限に活用できるようにするための一連の技術と機能です。例えば、先ほどAsynchronous Timewarpについて説明しました。NVIDIA GameWorksの世界では、Asynchronous Timewarpはドライバーレベルで利用可能です。AMDのLiquid VRプラットフォームと同様に、NVIDIAはSLI VRも導入しています。これは、複数のグラフィックカードを搭載したコンピューターで左右のビューを同時にレンダリングできるようになり、最も効果的なVR体験を実現することを意味します。
しかし、最も興味深いのは、同社のマルチ解像度シェーディング技術です。Oculus RiftやHTC Viveといった最新のHMDは、楕円形のデュアルビューをディスプレイに送信する必要があります。コンピューターモニター上では肉眼では奇妙な画像に見えますが、HMDレンズを通して見ると、適切な形状をしています。左右の画像の中央は高密度で、画像が外側に広がるにつれて、ピクセルはより散在し、広がります。
これまで、このピクセル歪みは事後的に適用されていました。グラフィックカードは利用可能な処理能力をすべて駆使してフル解像度の画像を出力し、歪みは後処理段階で処理されていました。ディスプレイパネルははるかに少ないピクセル数でほぼ同等の性能を発揮できるため、これは無駄な処理です。
Nvidiaの解決策は、画像を3x3のビューポートグリッドに分割することです。ここでは、ビューポートを画面空間のセグメントと考えてください。中央のビューポートはフル解像度またはほぼフル解像度のままですが、周囲のビューポートは、従来のポストプロセス処理で処理されていたワープと同様の方法でレンダリングされます。結局のところ、ユーザーが認識する画質はほぼ同じで、生成されるピクセル数は25%から50%少なく、ピクセル描画レートは通常の1.3倍から2倍になります。Oculus CV1を例に挙げると、2160x1200のディスプレイでマルチシェーダーレンダリングを効果的に行うには、30%から50%少ない処理能力が必要です。
NVIDIAは、「高優先度コンテキスト」と呼ばれるコンセプトも推進しています。従来のDirectXでレンダリングする場合、開発者はA地点からB地点への移動に決まったプロセスしか使えません。NVIDIAはレンダリングパスの扉を広げることで、ヘッドトラッキングなどによって予期せぬ変化が生じても、開発者はより迅速に修正できるようになります。
AMDとNVIDIAはどちらも強力な製品を提供していますが、重要なのは、どちらも正式な標準規格ではないということです。つまり、ゲームやコンテンツ制作者は、それぞれのアーキテクチャから最大限のパフォーマンスメリットを得るために、2つの独自の開発パスをサポートする必要があります。
結論
この業界が近代の黎明期から関わってきた経験から言えるのは、本当に素晴らしいということです。消費者向け製品が一つも発売される前から、VRディスプレイにグラフィックを届ける仕組みの核となる部分には既に革新的な技術が投入されており、ヘッドマウントディスプレイも様々な仕様やコア技術を駆使して登場しています。さらに、全く新しい実験的なアイデアも生まれており、中には(残念ながら失敗に終わったものの)宇宙に打ち上げられたものも含まれています。
しかし、このレースにはゴールラインがないことを改めて認識しなければなりません。学習曲線が限られている従来のディスプレイ業界とは異なり、あらゆる追加機能が、バーチャルリアリティやその他の没入型技術に対する私たちの理解を劇的に変える可能性があります。ソニー・コンピュータエンタテインメント・ワールドワイド・スタジオのイマーシブ・テクノロジー・グループ・ディレクター、サイモン・ベンソン氏によると、視野角がわずか5度広がるだけですべてが変わります。ベンソン氏は、レーシングカーの設計変更によって視界が広くなり、意図せず焦点がぼけてしまい、ドライバーの事故が増えたという例を挙げました。
Oculus CV1、ValveのHTC Vice、FOVE、Starbreeze VR、Immersion-VReliaのGOプラットフォームなど、数え切れないほどの製品を個人的に見てきましたが、この業界は多様性に富み、最高の瞬間はまだこれからだと確信しています。プラットフォームが単一のブランドに限定されず、APIが汎用性を維持できる限り、この分野では消費者とベンダーの双方にとって勝者しかいないでしょう。
[更新: この記事は、Oculus CV1 用に提供した解像度のエラーを修正し、Sony PSVR (Morpheus ではなく) への言及、引用された専門家のタイトルの変更、HTC/Valve Vive Lighthouse テクノロジーの仕組みに関するいくつかの小さな説明など、その他の小さな変更を加えるために 2015 年 10 月 12 日に更新されました。]
詳細:価格に見合った最高のグラフィックカード
詳細:すべてのグラフィックコンテンツ