
ディープラーニングの元責任者が設立し、マイクロソフトとNVIDIAの支援を受ける新興スタートアップ企業、Inflection AIは先週、業界の大手企業から現金とクラウドクレジットで13億ドルを調達した。同社はこの資金を、NVIDIAのH100コンピューティングGPUを最大2万2000基搭載したスーパーコンピュータクラスターの構築に充てるとみられる。このクラスターの理論上のピーク演算性能は、Frontierスーパーコンピュータに匹敵する。
「約2万2000台のH100からなるクラスターを構築する予定です」と、DeepMindの創業者であり、Inflection AIの共同創業者であるムスタファ・スレイマン氏はロイター通信に語った。「これはGPT-4全体の学習に使用された計算量の約3倍に相当します。スピードとスケールこそが、私たちが差別化された製品を開発する上で真に重要な鍵となるのです。」
22,000基のNvidia H100コンピューティングGPUを搭載したクラスターは、理論上1.474エクサフロップスのFP64性能(これはTensorコア使用時)を実現します。CUDAコアで一般的なFP64コードを実行する場合、ピークスループットはその半分の0.737 FP64エクサフロップスとなります。一方、世界最速スーパーコンピュータであるFrontierのピークコンピューティング性能は1.813 FP64エクサフロップス(行列演算の場合はその2倍の3.626エクサフロップス)です。そのため、計画中の新型コンピュータは現時点では2位ですが、El CapitanとAuroraが完全稼働すれば4位に落ちる可能性があります。
FP64の性能は多くの科学研究ワークロードにとって重要ですが、このシステムはAI指向のタスクにおいてはるかに高速になる可能性があります。FP16/BF16のピークスループットは43.5エクサフロップスで、FP8のスループットではその倍の87.1エクサフロップスとなります。AMDのInstinct MI250Xを37,888基搭載したFrontierスーパーコンピュータは、BF16/FP16のピークスループットが14.5エクサフロップスです。
クラスターのコストは不明ですが、NVIDIAのH100コンピューティングGPUの小売価格が1台あたり3万ドル以上であることを考慮すると、クラスターのGPUコストは数億ドルになると予想されます。ラックサーバーやその他のハードウェアをすべて合わせると、13億ドルの資金の大部分を占めることになります。
Inflection AIは設立から約1年を経て、現在約40億ドルの評価額に達しています。現在唯一の製品は、Pi(パーソナルインテリジェンスの略)と呼ばれる世代別AIチャットボットです。Piは、ChatGPTに類似した生成AI技術を搭載したAI搭載パーソナルアシスタントとして設計されており、計画、スケジュール管理、情報収集をサポートします。これにより、Piはユーザーと対話形式でコミュニケーションを取り、質問やフィードバックの提供が可能になります。Inflection AIは、感情的なサポートの提供など、Piの具体的なユーザーエクスペリエンス目標を定めています。
現在、Inflection AIはMicrosoft Azureクラウド上で3,584基のNVIDIA H100コンピューティングGPUをベースとしたクラスターを運用しています。提案されているスーパーコンピューティングクラスターは、現在のクラウドベースのソリューションの約6倍の性能を実現します。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。