ゲームが提供するグラフィックの忠実度の向上を少し見るだけで、過去10年間のGPUコンピューティング能力の進歩が分かります。しかし、この進歩がどれほど飛躍的なものであったかを真に理解するには、ビジュアル面だけでなく、GPUが提供する純粋なコンピューティング能力を検証する必要があります。
この変化は、ムーアの法則と $:GFLOPS 比率の継続的な低下に起因すると考えられますが、CPU は GPU の計算能力の急激な成長に追いついていないことに留意することが重要です。2002 年の Pentium 4「Northwood」プロセッサと 2012 年の Core i7-3970X プロセッサの間では、計算能力は 12.24 GFLOPS から 336 GFLOPS へと「わずか」 2600% しか増加していません。
これらの比較の重要性は 2 つあります。第 1 に、現世代の GPU は現世代の CPU の 10 倍をはるかに超える計算能力を誇っていること、第 2 に、大多数のアプリケーションと計算タスクは GPU が提供する処理能力を活用していないことです。
AMD は、同社の APU で使用されている「インテリジェント コンピューティング アーキテクチャ」である HSA を基盤とする異種均一メモリ アクセス (hUMA) テクノロジでこの問題に対処しようとしており、「適切なタスクを最適な処理要素にシームレスに移動することで、CPU、GPU、その他のプロセッサが単一のシリコン上で調和して動作できるようにする」ことを目指しています。
hUMA が提供するハードウェアの一貫性により、3 つの重要な機能がもたらされます。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
- コヒーレントメモリ: CPUとCPUキャッシュの両方が最新のデータを参照できるようにします
- GPUが物理メモリに(まだ)存在しない仮想メモリアドレスにシームレスにアクセスできるようにするページング可能なメモリ
- メモリ空間全体: CPU と GPU はどちらも、システムの仮想メモリ空間内の任意の場所にアクセスして割り当てることができます。
AMDは、以下の例を用いてこの技術の機能を実証しています。hUMAがない場合、CPUはまずデータをGPUメモリに明示的にコピーし、GPUが計算を完了した後、CPUは結果をCPUメモリに明示的にコピーして読み出す必要があります。hUMAを使用すると、CPUはGPUにポインタを渡すだけで計算が完了し、CPUがコピーを必要とせずに直接読み取れる結果が生成されます。
上記のスライドに記載されている「トップ 10 の理由」に加えて、AMD は hUMA テクノロジが開発者と消費者の両方にもたらす 6 つの利点をさらに挙げています。
- 単一の標準コンピューティング環境によるプログラミングの容易さとシンプルさ
- Python、C++、Javaなどの主要なプログラミング言語をサポート
- より効率的なアーキテクチャにより、より少ない人数で同じ作業ができるようになるため、開発コストが削減されます。
- 「根本的に異なるユーザーエクスペリエンス」によるより良いエクスペリエンス
- 同じフォームファクタでより高いパフォーマンスを実現
- パフォーマンスを犠牲にすることなくバッテリー寿命を延ばす
AMDは、HSA財団とARM、Qualcomm、Samsung、Texas Instrumentsといった企業とのパートナーシップを通じて、既に業界の主要企業から幅広い支持を得ています。同社はHSA/hUMA技術に十分な自信を持っており、2016年までに21億台のコネクテッドデバイスが普及すると予測しており、そのうち3分の2をHSAベースのデバイスが占める可能性があると大胆に予測しています。
このテクノロジに関する詳細は、2013 年 11 月 11 日から 11 月 14 日までサンノゼで開催される AMD の開発者サミット APU '13 で発表される予定です。このサミットでは、「14 の異なるトラックと 140 を超える個別のプレゼンテーション」が提供されます。
タラン・アイヤーはTom's Hardwareの寄稿者で、プロセッサ、グラフィックカード、冷却システム、コンピュータ周辺機器など、幅広いテクノロジー関連のニュースを執筆していました。また、アダプティブオールインワンPCの開発といった技術トレンドも取り上げていました。