83
NVIDIAの逆襲 - GeForce2 Ultra 3Dモンスター

導入

この記事に適切に備えるために、既に読んでいない限り、上記の内容に触れている以下の記事を読んでおくことをお勧めします。

  • NVIDIA の新しい GeForce2 GTS に関するトムの見解
  • NVIDIA GeForce2 MXの完全レビュー
  • 3Dベンチマーク - フレームレートスコアの理解
  • 最速のGeForce2 GTSカード - GainwardのCARDEXpert GeForce2 GTS/400
  • ATiの新しいRadeon - スマートテクノロジーとブルートフォースの融合

誰の責任ですか?

NVIDIAのパフォーマンスの悪さやエンジニアリングの悪さを責めるのは、必ずしも公平とは言えません。NVIDIAが責められるべきは、GeForce2 GTSの発売時に、驚異的な高いフィルレートを謳っていたにもかかわらず、真実を語らなかったことです。

さて、NVIDIAを蹴落とす前に、まず「3Dチップ開発ゲーム」(そう呼んでも構わないのですが)は「CPU開発ゲーム」とそれほど変わらないことを認識すべきでしょう。どちらの場合も、チームはリリースの何ヶ月も、あるいは何年も前から新しい設計に取り組んでいます。GeForce2 GTSがテープアウトされた時点では、リリース時のメモリ市場がどのような状況になっているか、誰も正確には分かりませんでした。NVIDIAは明らかに、高速DDR SDRAMが2000年第2四半期には既に利用可能になっているだろうという、幸運な推測に頼っていました。今日では、NVIDIAには他に選択肢がなく、GeForce2 GTSに6ns DDR SDRAMを搭載せざるを得なかったことが分かっています。しかし、この高速チップに必要な帯域幅は、これでは到底足りません。ATiはつい最近Radeonをリリースしましたが、これもメモリ帯域幅の制限に悩まされています。ATiが入手できた最高のメモリは5.5ns DDR SDRAMであり、それでもまだ十分とは言えないからです。

GeForce2 Ultraが救世主

ついに NVIDIA は 4.4 ns および 4 ns 仕様の DDR SDRAM を入手できるようになりました。この新しい高速メモリ 64 MB が、250 MHz 以上のさらに高いクロック速度で動作する GeForce2 GTS チップと組み合わされ、NVIDIA の新しい GeForce2 Ultra が完成しました。

3Dクラックを経験した方、そして私のアドバイスに従って上記の記事をすべて読んでくださった方は、これ以上読む必要はありません。GeForce2がその高性能な組み合わせによってどれほどのパフォーマンス向上を実現しているかは、2と2を数えるだけで理解できるからです。ついにNVIDIAの新たな最高性能モデルは、メモリの遅延による遅延がなくなり、設計の父たちが設計した本来のパフォーマンスをついに発揮できるようになりました。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

皆さんをうんざりさせてしまうほど退屈させてしまうなら、GeForce2の3D機能をもう一度全部説明しても構いません。私の親愛なる同僚たちもきっとそうするでしょう。しかし、GeForce2 Ultraは奇跡の新作ではなく、GeForce2 GTSの高速版に過ぎないので、貴重な時間を節約したいところです。それでも詳細が必要な場合は、以下のリストをご覧ください。それ以外の方は、冗長な部分は飛ばしていただいて構いません。これはどのウェブサイトにも載っているわけではないので、ぜひご覧ください!

GeForce2の機能

  • .18ミクロンプロセス
  • 第2世代の統合変換および照明エンジン
  • NVIDIA シェーディング ラスタライザー
  • ピクセル単位の照明など
  • フルシーンアンチエイリアシング(FSAA)
  • キューブ環境マッピング
  • 変換と照明 - それは何ですか?
  • フィルレート、レンダリングパイプライン、三角形のサイズ
  • 無駄なエネルギー - 隠された表面のレンダリング
  • 3Dベンチマーク - フレームレートスコアの理解
  • GeForce2 GTSはメモリ帯域幅の制限に悩まされている

他にもたくさんありますが、ここで繰り返すのはちょっと飽きてきました。リストが短すぎると思ったら、ぜひ教えてください。 :)

歴史を振り返る

新しい NVIDIA 3D アクセラレータの詳細に入る前に、過去 2 年間の NVDIA 製品におけるフィルレートとメモリ帯域幅の問題がどのように推移したかについて説明したいと思います。

まず、プレスリリースに記載されている理論的な仕様を見てみましょう。

理論上の数値で言えば、NVIDIAは1998年秋のTNT発売以来、大きな進歩を遂げてきました。TNTには90MHzで動作するレンダリングパイプラインが2つ搭載されていました。今日のGeForce2 Ultraには4つのパイプラインが搭載され、それぞれが1クロックあたり2テクセルをレンダリングでき、クロックは250MHzです。これは理論上のピクセルフィルレートが455%、テクセルフィルレートが1000%以上向上することを意味します!まさに進歩です!

次に興味深いのは、カードのビデオ メモリのメモリ帯域幅がどのように進化したかです。

まず、最初にリリースされたSDRメモリ搭載のGeForce256チップの後退に気づくかもしれません。メモリ帯域幅はわずか2.5GB/秒でしたが、前身のTNT2 Ultraではすでに2.7GB/秒を誇っていました。

次に重要なのは、TNTからGeForce2 Ultraへのメモリ帯域幅の増加がわずか331%にとどまっていることです。これは、TNTからGF2 Ultraにかけて実現した高ピクセル化と超高テクセルフィルレートの向上には明らかに及ばないものです。この事実は、メモリ技術が3Dチップ技術に追いつけないことを示す強力な証拠です。これは常にそうでしたが、かつてグラフィックスチップメーカーは単にデータパスを増やすだけでした。16ビットから32ビット、あるいは32ビットから64ビットへの移行は可能かもしれませんが、今日では128ビットに達しており、それ以上のビット数を実現するのは非常に困難です。したがって、メモリはより高速化する必要があるのです。