合計40,960個のCUDAコアと128GBのGPUメモリを搭載した8基のTesla V100 GPUを、1つの頑丈な筐体に詰め込んだ製品をお探しなら、NVIDIAがお役に立ちます。DGX-1はCrysisをプレイできます(コメント欄の皆さん、お邪魔してすみません)。しかし、NVIDIAはDGX-1をデータセンターにおける人工知能(AI)ワークロード向けに特別に設計しました。
人工知能(AI)は、データセンターからモバイルデバイスに至るまで、コンピューティングの様相を一変させています。NVIDIA GPUは、今日の計算集約型AIトレーニングの大部分を既に担っており、これはディープラーニングにおける軽量な推論部分を可能にする重要なステップです。IoTやモバイルデバイスなどのエッジで推論を通じてデータを処理するには、独自の課題が伴いますが、実際の処理はデータセンターで行われます。
NVIDIAは数多くのGPUを販売していますが、他のビジネスモデルと同様に、システムレベルにまで踏み込む方が常に収益性が高いです。また、より強固な開発者エコシステムの構築にも貢献し、現代のアプリケーションのあらゆる側面に関わる幅広いアプリケーションにAIを導入するという大きな目標の達成に貢献します。
テスラ 150W FH-HL アクセラレーター
もちろん、NVIDIAはディスクリートコンポーネントの分野から大きく離れるつもりはありません。同社はまた、300WのTesla V100アクセラレータと150WのFH-HL(フルハイト・ハーフレングス)バージョンも発表しました。どちらのモデルもVolta GV100を搭載していますが、NVIDIAは小型のFH-HLモデルを設計することで、汎用的な推論サーバーに推論のパワーをもたらすことを目指しています。
画像
1
の
3

この新モデルは、スケールアウト展開における消費電力と発熱量を削減するように設計されています。NVIDIAのCEO、ジェンスン・フアン氏はGTCのステージで150W版のカードを披露しましたが、技術的な詳細は明らかにしませんでした。推論ワークロードはそれほど高負荷ではなく、消費電力の低減を考慮すると、このカードは300W版よりも論理的に低速になります。重要なのは、この小型版によって、推論ワークロードへの対応において、より電力効率とコスト効率の高いGPUソリューションが実現されるということです。
ボルタ DGX-1
NVIDIAは昨年、第一世代のDGX-1スーパーコンピュータを発表しました。テスラのプロセッサを搭載したDGX-1は、8基のP100データセンターGPUを搭載していました。同社は既に高い導入実績があり、イーロン・マスク氏の非営利団体OpenAIも最初の導入先の一つです。NVIDIAによると、第一世代のDGX-1は、28,672基のCUDAコアを搭載し、最大170 FP16 TFLOPSの演算性能を備え、400基のCPUを置き換えることができます。NVLinkは、標準的なPCIe接続の最大5倍の性能を提供します。
確かにこれらは素晴らしいスペックですが、NvidiaはTesla V100を搭載した新しいDGX-1で、さらにその性能を高めています。この新しいシステムは3U筐体に8基のVolta GPUを搭載し、40,960基のCUDAコアから960TFLOPSという驚異的な処理能力を発揮します。さらに、5,120基のTensorコア(詳細はこちら)が追加され、NVLink 2.0によってスループットは標準PCIe接続(300GB/秒)の10倍に向上します。消費電力は3,200Wです。Nvidiaによると、このプラットフォームは800個のCPU(または400台のサーバー)を置き換えることができ、Titan Xで8日間かかっていたトレーニングタスクの時間を8時間に短縮できるとのことです。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
ソフトウェアはハードウェアと同様に重要です。DGX-1には、NVIDIAの統合ディープラーニングソフトウェアスタックとクラウド管理サービスが付属しており、NVIDIAは導入までの時間を短縮できると主張しています。このソフトウェアスタックは、Pytorch、Caffe、TensorFlowなど、多くの一般的なツールをサポートし、Dockerコンテナ化ツールも含まれています。Volta DGX-1は第3四半期に149,000ドルで出荷予定です。顧客は本日P100 GPUを搭載したソリューションを購入でき、NVIDIAは第3四半期にV100 GPUへの無償アップグレードを提供すると、同社CEOのジェンスン・フアン氏がGTCのステージで発表しました。
DGXステーション
Nvidia は DGX Station を小規模な導入向けに設計したため、基本的にはエントリーレベルの価格帯が低い、小型で安価な代替品となっています。
NVIDIAは、このスリムなシステムは最大400個のCPUを置き換えることができ、消費電力は20分の1に抑えられると主張しています。また、内蔵水冷システムにより、非常に静音性に優れているとしています。4つのV100 GPUに1500Wの電力を供給し、480TFLOPS(FP16)の演算性能を発揮します。NVIDIAによると、このワークステーションは、20ノードのSparkサーバークラスターと比較して、大規模データセットの分析において100倍の高速化を実現します。
このシステムの価格は 69,000 ドルで、ソフトウェア スイートも付属しています。
HGX-1
NVIDIAは、Azureのディープラーニング、GRIDグラフィックス、CUDA HPCワークロード向けにMicrosoftと共同開発したHGX-1も宣伝しましたが、詳細は明らかにしませんでした。HGX-1は、標準的なDGX-1シャーシに1Uサーバーを組み合わせたような構成のようです。
サーバーはフレキシブルなPCIeケーブルで接続されており、この構成によりMicrosoftはCPUとGPUの要件を自由に組み合わせることができます。例えば、セカンダリ3U DXG-1シャーシに2基または4基のCPUと様々な数のGPUを搭載するなどです。このシステムは一般公開されていませんが、NVIDIAの投資家にとって、同社が高利益率のハイパースケールデータセンター顧客の獲得に注力していることを改めて示すものとなるでしょう。
ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。