7
AWSとNvidiaが16,384個のスーパーチップを搭載したスーパーコンピュータを構築、生成AIインフラ構築で提携
エヌビディア
(画像提供:Nvidia)

多くの企業が人工知能(AI)ワークロード向けのアクセラレーターを開発していますが、NVIDIAのCUDAプラットフォームはAIサポートにおいて現在比類のない存在です。そのため、NVIDIAベースのAIインフラストラクチャに対する需要は高くなっています。この需要に応えるため、Amazon Web Services(AWS)とNVIDIAは戦略的パートナーシップを締結し、AWSは生成型AI向けにNVIDIAベースのインフラストラクチャを提供します。両社は今後、いくつかの主要プロジェクトで提携していく予定です。

AWSのCEO、アダム・セリプスキー氏は次のように述べています。「現在、私たちはグラフィックス、ゲーム、ハイパフォーマンスコンピューティング、機械学習、そして今や生成AIといったワークロード向けに、最も幅広いNVIDIA GPUソリューションを提供しています。私たちはNVIDIAと共にイノベーションを続け、AWSをGPU実行に最適な環境へと進化させていきます。次世代NVIDIA Grace HopperスーパーチップとAWSのEFAの強力なネットワーク、EC2 UltraClustersのハイパースケールクラスタリング、そしてNitroの高度な仮想化機能を組み合わせます。」 

さらに、AWSは NVIDIAのGH200 Grace Hopperスーパーチップを搭載したクラウドベースのAIスーパーコンピュータを初めて提供します。この独自の構成では、NVLinkを使用してインスタンスごとに32個のGrace Hopperスーパーチップを接続します。AmazonのEFAネットワークに接続され、高度な仮想化(AWS Nitro System)とハイパースケールクラスタリング(Amazon EC2 UltraClusters)によってサポートされる、数千個のGH200スーパーチップ(および4.5TB HBM3eメモリ)まで拡張可能です。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。