50
MetaはAIトレーニング用にRISC-Vベースの最初のAIチップをテストしていると報じられている。
MTIA
Broadcom設計のプロセッサ。画像は説明のみを目的としています。 (画像提供: Meta)

Metaは数年前、コスト削減とNVIDIAへの依存軽減を目的として、AI推論向けRISC-Vベースチップをいち早く開発した企業の1つです。ロイター通信によると、同社はさらに一歩進み、AIトレーニング用のアクセラレータを自社開発しました(おそらくBroadcomの支援を受けて)。このチップがMetaの目標を達成すれば、高度な大規模言語モデルのトレーニングにおいて、H100/H200やB100/B200といったハイエンドのNVIDIA AI GPUへの依存を軽減できる可能性があります。

MetaとBroadcomは、Meta初のAIトレーニングアクセラレータをTSMCと共同でテープアウトした。TSMCはこれらのチップの最初の実働サンプルを製造し、両社はユニットの立ち上げに成功したと報道されている。Metaは現在、アクセラレータの限定的な導入を開始し、生産と導入の規模拡大に先立ち、その性能を評価している。Metaのエンジニアがこの新チップでベンチマークを実行しているかどうかは不明だが、既にいくつかの有用な成果が得られている。

AI向けカスタムRISC-Vアクセラレータ

このプロセッサはAIトレーニング用に設計されており、膨大な量のデータを処理することを意味します。そのため、HBM3またはHBM3Eメモリを搭載することが予想されます。特注プロセッサであることを考慮し、Metaはサポートするデータ形式と命令を定義し、ダイサイズ、消費電力、パフォーマンスを最適化しました。パフォーマンスに関しては、アクセラレータは、H200、B200、そしておそらく次世代のB300といったNVIDIAの最新AI GPUと競合するワット当たり性能特性を提供する必要があります。

このチップは、MetaのMeta Training and Inference Accelerator(MTIA)プログラムに新たに追加されたものです。このプログラムは、開発が同様の段階で中止されるなど、様々な困難に直面してきました。

例えば、Metaは、限定的な導入テストでパフォーマンスと消費電力の目標を達成できなかったため、自社の推論プロセッサの製造を中止しました。この失敗を受け、Metaは2022年に戦略を転換し、AI処理の当面の要件を満たすためにNVIDIA GPUを大量発注しました。

それ以来、MetaはNVIDIAの最大の顧客の一つとなり、数万台のGPUを導入しました。これらのユニットは、レコメンデーション、広告、そしてLlama Foundationモデルシリーズ向けのAIモデルの学習に不可欠な役割を果たしています。また、ロイター通信によると、この環境企業のGPUは推論プロセスにも活用され、Metaのプラットフォーム全体で毎日30億人以上のユーザーのインタラクションを支えています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

こうした課題にもかかわらず、Metaはカスタムシリコンプログラムの進化を続けています。昨年、Metaは推論タスクにMTIAチップを採用し始め、将来を見据えて、Metaの経営陣は2026年までにAIトレーニングにカスタムチップを採用する計画を概説しました。チップがパフォーマンスと消費電力の目標を達成すれば、徐々に使用を拡大していく計画です。これは、データセンター運用向けに、よりカスタマイズされたハードウェアソリューションを設計するというMetaの長期目標にとって重要な要素です。

注目すべき興味深い点は、MTIAの推論用アクセラレータがオープンソースのRISC-Vコアを使用していることです。これにより、Metaは自社の要件に合わせて命令セットアーキテクチャを自由にカスタマイズできる一方で、サードパーティにロイヤリティを支払う必要がありません。MTIAのトレーニングアクセラレータもRISC-V ISAをベースにしているかどうかは不明ですが、可能性はあります。もしこれが事実であれば、Metaは業界最高性能のRISC-Vベースチップの1つを開発したことになるかもしれません。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。