NVIDIAは、DGX Station向けに新たなジャンプスタートプログラムを発表しました。このプログラムでは、初めて購入するシステムの導入価格が25%引き下げられます。GPU不足が深刻化する中、4基のGPUを搭載したシステムに49,900ドルという価格は高すぎるように思えるかもしれませんが、これらのカードは一般的なものではありません。このワークステーションは、プロフェッショナルアプリケーション向けに設計されたNVIDIAのVolta V100 GPUを搭載しています。特にDGX Stationは、ディープラーニング開発者向けに特別に設計されています。
NVIDIAは、DGX StationをDGX-1サーバーの小型ワークステーションクラスとして設計しました。4基の水冷式Tesla V100は、フルタワー設計で最大500テラフロップスのパフォーマンスを発揮します。これは、64GBのHBM2メモリと合計20,480個のCUDAコアによって実現されています。
DGX ステーションには、256 GB の DDR4 メモリや RAID 0 の 3 つの 1.92 TB SSD など、パフォーマンスを向上させるさまざまな追加機能が搭載されています。また、オペレーティング システム用の 1.92 TB SSD とデュアル 10Gb LAN ネットワーク ソリューションも含まれています。
NVIDIAは、このシステムは400個のCPU(どのCPUかは不明)をはるかに上回る性能を、消費電力のほんの一部で実現できると主張している。確かに、このシステムはフル負荷時に1,500Wを消費するが、水冷システムにより動作中は机の下に置いても問題ないほど静音設計になっているとNVIDIAは主張している。つまり、ディープラーニング開発者は、大型サーバーでは不可能なことが多いオフィスでこのシステムを使用できるのだ。
画像
1
の
5

価格は高額に思えるかもしれませんが、このシステムには他に類を見ない機能が備わっています。現時点では、NVLinkを使用して4つのV100を同時に動作させることができる唯一のワークステーションです。一方、他のワークステーション(個人開発者が独自に構築したものも含む)は、デュアルNVLink実装に限られています。NVLink接続は、各GPU間のデータパイプを拡張することでパフォーマンスを向上させます。例えば、4ウェイNVLinkは、GPU間の標準的なPCIe接続と比較して、GPU間帯域幅を5倍に向上させます。
画像
1
の
4

NVIDIAは、システムに事前認証済みのソフトウェアスイートも提供しています。同社によると、このスイートは最大30%のパフォーマンス向上を実現するとのことです。開発者は、事前に最適化されたコンテナをロードし、ソフトウェアを設計するだけで、遠隔地のデータセンターにある本番環境クラスのサーバーに移行できます。もちろん、NVIDIAはこれらのシステムをDGX-1サーバー(上図)と連携させて動作させることを想定しており、開発者はコードを再コンパイルすることなく移行できます。
SAP の機械学習担当ディレクターのフランク・ウー氏は、DGX ステーションの直接的なメリットの 1 つとして、ディープラーニング モデルのトレーニングにかかる時間が大幅に短縮されたことを挙げています。同社は以前、ラボで CPU ベースのシステムを使用していましたが、DGX ステーションのコンパクトで静音設計により、一般的なオフィス環境で使用できるようになりました。同社はオフィスでモデルを設計し、それを DGX ステーションからリモート データセンターの DGX-1 サーバーに直接移行します。SAP はまた、このシステムが複数の同時ユーザーをサポートするのに十分な処理能力を備えていることを発見しました。これは、米国とドイツの両チームでシステムを共有しているため、同社のディープラーニング グループにとって理想的です。たとえば、SAP の HANA グループもこのシステムを使用して、GPU アクセラレーション データベース ソフトウェアを開発しています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
DGX Stationの25%割引は販売代理店を通じて提供され、初回購入時にのみ適用されます。2回目以降の購入は通常価格の69,000ドルとなります。ジャンプスタートプログラムは2018年4月29日まで実施されます。
ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。