55
Sohu AIチップは、Nvidia H100 GPUよりも20倍高速かつ安価にモデルを実行できると主張
捜狐AIチップ
(画像提供:Etched)

トランスフォーマーに特化したチップを開発するスタートアップ企業Etchedは、AI LLM推論においてNVIDIAのH100を上回ると謳う特定用途向け集積回路(ASIC)「Sohu」を発表しました。8基のSohuを搭載したサーバー1台は、H100 GPU 160基分の性能に匹敵するとされており、Sohuが期待通りの性能を発揮すれば、データ処理センターは初期コストと運用コストの両方を削減できることになります。

Nvidia H100 vs H200 vs Sohu

(画像提供:Etched)

大規模言語モデル(LLM)の多くは、計算タスクの大部分で行列乗算を使用しています。Etchedの推定によると、NVIDIAのH100 GPUはこの主要タスクにトランジスタのわずか3.3%しか使用していません。つまり、残りの96.7%のシリコンは、汎用AIチップにとって依然として不可欠な他のタスクに使用されていることになります。

しかし、近年、トランスフォーマーAIアーキテクチャの人気が高まっています。例えば、現在最も人気のあるLLMと言えるChatGPTは、トランスフォーマーモデルに基づいています。その名の通り、Chat Generative Pre-trained Transformer (GPT)です。Sora、Gemini、Stable Diffusion、DALL-Eといった競合モデルも、すべてトランスフォーマーモデルに基づいています。

画像

1

2

Transformer AIモデル
(画像提供:Etched)

Etchedは数年前、Sohuプロジェクトを開始した際にトランスフォーマーに大きな賭けに出ました。このチップはトランスフォーマーアーキテクチャをハードウェアに組み込むことで、AIコンピューティングにより多くのトランジスタを割り当てることを可能にします。これはプロセッサとグラフィックカードに例えることができます。現在のAIチップは様々な処理が可能なCPUであり、トランスフォーマーモデルはゲームタイトルのグラフィックス要求に相当します。もちろんCPUもこれらのグラフィックス要求を処理できますが、GPUほど高速かつ効率的には処理できません。ビジュアル処理に特化したGPUは、ハードウェアがそのために特別に設計されているため、グラフィックスレンダリングをより高速かつ効率的に実行できます。

Etched社がSohu社と共同で行ったのはまさにこれだ。あらゆるAIアーキテクチャに対応できるチップを作るのではなく、トランスフォーマーモデルのみで動作するチップを開発した。2022年にプロジェクトを開始した当時、ChatGPTはまだ存在していなかった。しかし、2023年には爆発的な人気を博し、同社の賭けは今、大きな成功を収めようとしているようだ。

NVIDIAは現在、世界で最も時価総額の高い企業の一つであり、AI GPUの需要が急増して以来、記録的な売上高を記録しています。2023年には376万台のデータセンターGPUを出荷しており、今年はさらに増加する見込みです。しかし、Sohuの参入は、特にTransformerモデルのみを使用する企業がSohuに移行した場合、AI分野におけるNVIDIAのリーダーシップを脅かす可能性があります。結局のところ、AI競争に勝つための鍵は効率性であり、最速かつ最も手頃な価格のハードウェアでこれらのモデルを実行できる企業がリードするでしょう。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

AIデータセンターが次々と出現して以来、多くの専門家が、この電力を大量に消費するインフラがもたらす電力消費危機について懸念を表明してきました。Metaの創設者マーク・ザッカーバーグ氏は、電力供給がAIの成長を制約すると述べており、米国政府でさえAIの電力需要について議論に加わっています。昨年販売されたGPUの総消費電力は130万世帯分を超えますが、EtchedとSohuのAIコンピューティングへの取り組みが成功すれば、AIの電力需要をより管理可能なレベルにまで削減し、コンピューティング需要の持続的な増加に合わせて電力網を整備できる可能性があります。

ジョウィ・モラレスは、長年のテクノロジー業界での実務経験を持つテクノロジー愛好家です。2021年から複数のテクノロジー系出版物に寄稿しており、特にテクノロジー系ハードウェアとコンシューマーエレクトロニクスに興味を持っています。