18
マイクロソフト、AIデータセンター向けに独自のネットワーク機器を開発:報道
データセンターネットワーク接続
(画像クレジット:Shutterstock)

マイクロソフトは、人工知能(AI)ワークロード向けに独自の128コアデータセンターCPUとMaia 100 GPUを発表した後、NVIDIA製ハードウェアへの依存を減らし、データセンターを高速化することを目指し、独自のネットワークカードの開発に着手したとThe Informationが報じています。この開発が成功すれば、Azureインフラストラクチャの最適化とテクノロジースタックの多様化を進める可能性があります。興味深いことに、マイクロソフトはこの取り組みを間接的に認めています。

マイクロソフトは約1年前、AMDのペンサンド部門やNVIDIAのメラノックス部門と競合していたデータ処理ユニット(DPU)開発企業であるファンジブルを買収しました。これは、同社が帯域幅を大量に消費するAIトレーニングワークロードに適したデータセンターグレードのネットワーク機器を設計するために必要なネットワーク技術とIPを保有していることを意味します。ジュニパーネットワークスの共同創業者であり、ファンジブルの創業者でもあるプラディープ・シンドゥ氏は、ネットワーク機器分野で豊富な経験を有しており、現在はマイクロソフトに勤務し、同社のデータセンター向けネットワークプロセッサの開発を指揮しています。

この新しいネットワークカードは、現在IntelのCPUとNVIDIAのGPUを搭載しているMicrosoftのAzureサーバーのパフォーマンスと効率性を向上させると期待されていますが、最終的にはMicrosoft独自のCPUとGPUも採用される予定です。The  Information によると、このプロジェクトはMicrosoftにとって重要であり、だからこそ同社CEOのサティア・ナデラ氏がシンドゥ氏を自らこのプロジェクトに任命したとのことです。

「Azureインフラへのシステムアプローチの一環として、スタックのあらゆるレイヤーの最適化に注力しています」と、マイクロソフトの広報担当者は The Informationに語った。「お客様のニーズを満たすため、ネットワークチップをはじめ、新たな技術を定期的に開発しています。」

高性能ネットワーク機器はデータセンターにとって不可欠であり、特にOpenAIのようなクライアントによるAIトレーニングに必要な膨大なデータを処理する場合には重要です。この新しいサーバーコンポーネントは、ネットワークトラフィックの混雑を緩和することでAIモデルの開発を加速させ、プロセスをより迅速かつ費用対効果の高いものにすることができます。

マイクロソフトの動きは、カスタムシリコンに向かう業界のトレンドと一致しており、アマゾン ウェブ サービス (AWS) や Google など他のクラウド プロバイダーも独自の AI および汎用プロセッサ、データセンター ネットワーク機器を開発している。

マイクロソフトのネットワークカードの導入は、年間100億ドル以上の収益が見込まれるNVIDIAのサーバーネットワーク機器の売上に影響を与える可能性があります。このカードが成功すれば、Azureデータセンター全体、特にOpenAIのモデルトレーニングの効率を大幅に向上させ、AI開発にかかる時間とコストを削減できる可能性があるとレポートは主張しています。

カスタムシリコンの設計と製造には相当の時間がかかるため、この取り組みの初期成果が出るまでには数年かかる可能性があります。短期的には、Microsoftは引き続き他社のハードウェアに依存しますが、今後数年で状況が変化する可能性があります。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。