21
Nvidiaは2026年までにAI GPU間の通信に光を使用する計画を発表。次世代AIデータセンターではシリコンフォトニクスと共パッケージ化された光学系が必須となる可能性がある。
エヌビディア
(画像提供:Nvidia)

増大し続けるAI GPUクラスター間の通信に対する過酷な需要により、ネットワーク層間の通信に光を使用する動きが加速しています。NVIDIAは今年初め、次世代ラックスケールAIプラットフォームにおいて、シリコンフォトニクスインターコネクトとコパッケージドオプティクス(CPO)を組み合わせることで、より低消費電力でより高速な転送速度を実現すると発表しました。今年のHot Chipsカンファレンスにおいて、NVIDIAは次世代のQuantum-XおよびSpectrum-Xフォトニクスインターコネクトソリューションに関する追加情報と、2026年のリリース予定を発表しました。

Nvidiaのロードマップは、3段階に展開されるTSMCのCOUPEロードマップにほぼ沿うものとなるでしょう。第1世代はOSFPコネクタ用の光エンジンで、消費電力を抑えながら1.6Tb/sのデータ転送速度を実現します。第2世代はCoWoSパッケージに移行し、光学部品をパッケージ化し、マザーボードレベルで6.4Tb/sを実現します。第3世代はプロセッサパッケージ内で12.8Tb/sを目指し、消費電力とレイテンシのさらなる削減を目指します。

なぜCPOなのか?

大規模AIクラスターでは、数千基のGPUを1つのシステムとして動作させる必要があるため、これらのプロセッサを相互接続する方法に課題が生じます。各ラックに短い銅線ケーブルで接続されたTier-1(Top-of-Rack)スイッチを配置するのではなく、スイッチをラックの端に移動することで、複数のラックにまたがる一貫性のある低レイテンシのファブリックを構築します。この移動により、サーバーと最初のスイッチ間の距離が大幅に長くなり、800Gbpsのような速度では銅線は実用的ではなくなります。そのため、サーバーとスイッチ間、およびスイッチ間のほぼすべてのリンクに光接続が必要になります。

エヌビディア

(画像提供:Nvidia)

この環境でプラガブル光モジュールを使用すると、明確な制限が生じます。このような設計では、データ信号はASICから出力され、ボードとコネクタを経由して伝送され、そこで初めて光に変換されます。この方法では、200Gbpsのチャネルで最大約22デシベルに達する深刻な電力損失が発生し、複雑な処理を伴う補償が必要となり、ポートあたりの消費電力が30Wに増加します(これにより追加の冷却が必要になり、潜在的な障害点が発生します)。NVIDIAによると、AI導入の規模が拡大するにつれて、この電力損失はほぼ耐え難いものになります。

エヌビディア

(画像提供:Nvidia)

CPOは、光変換エンジンをスイッチASICに併設することで、従来のプラガブル光モジュールの欠点を回避します。そのため、信号は長い電気配線を経由することなく、ほぼ瞬時に光ファイバーに接続されます。その結果、電力損失は4デシベルにまで低減され、ポートあたりの消費電力は9Wにまで低減されます。このようなレイアウトにより、故障の恐れがある多数のコンポーネントが不要になり、光インターコネクトの実装が大幅に簡素化されます。

NVIDIAは、従来のプラガブルトランシーバーから脱却し、光エンジンをスイッチシリコン(TSMCのCOUPEプラットフォーム提供)に直接統合することで、効率、信頼性、拡張性を大幅に向上させたと主張しています。NVIDIAによると、CPOはプラガブルモジュールと比較して劇的な改善を実現しており、電力効率は3.5倍、信号整合性は64倍、アクティブデバイスの減少により耐障害性は10倍向上し、サービスと組み立ての簡素化により導入が約30%高速化されます。

イーサネットおよびInfiniBandのCPO

NVIDIAは、EthernetとInfiniBand技術の両方に対応したCPOベースの光インターコネクトプラットフォームを導入します。まず、2026年初頭にQuantum-X InfiniBandスイッチを導入する予定です。各スイッチは115Tb/sのスループットを提供し、それぞれ800Gb/sで動作する144ポートをサポートします。このシステムには、14.4TFLOPSのネットワーク内処理能力を備えたASICも搭載されており、NVIDIAの第4世代スケーラブル階層型集約削減プロトコル(SHARP)をサポートすることで、集合的な操作のレイテンシを削減します。スイッチは液冷式となります。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

エヌビディア

(画像提供:Nvidia)

並行して、Nvidiaは2026年後半にSpectrum-X PhotonicsプラットフォームでCPOをイーサネットに導入する予定です。このプラットフォームはSpectrum-6 ASICを搭載し、2つのデバイスに電力を供給します。1つは800Gb/sで128ポート、102.4Tb/sの帯域幅を提供するSN6810、もう1つは同速度で409.6Tb/s、512ポートまで拡張可能なより大型のSN6800です。どちらも液冷方式を採用しています。

エヌビディア

(画像提供:Nvidia)

NVIDIAは、CPOベースのスイッチが、より大規模かつ高度化する生成型AIアプリケーション向けの新しいAIクラスターを支えると考えています。CPOの採用により、これらのクラスターは数千もの個別コンポーネントを削減し、迅速な導入、容易な保守、そして接続あたりの消費電力の削減を実現します。その結果、Quantum-X InfiniBandとSpectrum-X Photonicsを使用したクラスターは、起動時間、最初のトークン生成時間、長期的な信頼性といった指標において優れた性能を発揮します。 

NVIDIAは、コパッケージ化された光学部品はオプションの機能強化ではなく、将来のAIデータセンターの構造要件であると強調しています。これは、同社が自社の光インターコネクトを、AMDなどの競合他社のラックスケールAIソリューションに対する主要な優位性の一つとして位置付けていることを示唆しています。もちろん、これがAMDがEnosemiを買収した理由です。

今後の道

Nvidiaのシリコンフォトニクス・イニシアチブにおいて注目すべき重要な点は、その進化がTSMCのCOUPE(Compact Universal Photonic Engine)プラットフォームの進化と密接に連携していることです。COUPEは今後数年間で進化し、NvidiaのCPOプラットフォームも進化させる予定です。TSMCの第1世代COUPEは、同社のSoIC-Xパッケージング技術を用いて、65nmの電子集積回路(EIC)と光集積回路(PIC)を積層して構築されています。

TSMCのCOUPEロードマップは3段階に分かれています。第1世代はOSFPコネクタ用の光エンジンで、消費電力を抑えながら1.6Tb/sのデータ転送速度を実現します。第2世代はCoWoSパッケージに移行し、光モジュールを内蔵することで、マザーボードレベルで6.4Tb/sを実現します。第3世代はプロセッサパッケージ内で12.8Tb/sの転送速度を目指し、消費電力とレイテンシのさらなる削減を目指します。

Google ニュースで Tom's Hardware をフォローすると  、最新のニュース、分析、レビューをフィードで受け取ることができます。「フォロー」ボタンを忘れずにクリックしてください。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。