
AIプロセス向けGPUクラウドプロバイダーであるBackpropは最近、Open-Sora V1.2ベースの環境を用いてAI生成動画を披露しました。同社は異なるプロンプトを用いた4つの例を示し、その結果は概ね平均的な品質でした。しかし、これらの比較的穏やかなサンプルでさえ、ハードウェア要件は非常に高いです。
同社のブログ記事によると、「3090では、最大240p、4秒の動画を生成できます。それ以上の解像度では、カードのメモリ使用量を超えてしまいます。生成には、2秒の動画で約30秒、4秒の動画で約60秒かかります。」これは、424x240ピクセルの出力に対しては十分な計算能力です。4秒の動画は合計1000万ピクセル弱です。
あるいは、H100 NVLという選択肢もありますが、デュアルGPU版は単体で探すのが少し難しいです。NeweggではSupermicroのデュアルGrace Hopperサーバーが75,000ドルで販売されており、186GBの共有VRAMを搭載しています。これなら720pの動画コンテンツ制作を始められるかもしれません。
上記のGPUを購入する上で最大のデメリットは、言うまでもなく価格です。RTX 4090は単体で1,599ドルからと、ほとんどの消費者にとっては高額です。プロ向けGPUはその4倍、データセンター向けAI GPUは20倍も高価になる可能性があります。H100にはIntelやAMDの競合製品もありますが、IntelのGaudiは依然として15,000ドルを超えると予想されており、AMDのMI300Xは10,000ドルから15,000ドルの間です。さらに、H100よりも最大20倍高速とされるSohu AIチップもありますが、まだ発売されていません。
たとえ十分な資金があったとしても、これらのGPUのほとんどは、近所のPCショップに行けば簡単に手に入るわけではありません。H100を大量に注文すると、代金を支払ってから自宅に届くまで2~3ヶ月かかります。電力要件も忘れてはいけません。H100のPCIeモデルは350Wの電力を消費するため、24時間365日動画を再生し続けると年間約3MWh、つまり約300ドルの電力を消費します。ハードウェアの価格を考えると、それほど大きな金額ではありません。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
ジョウィ・モラレスは、長年のテクノロジー業界での実務経験を持つテクノロジー愛好家です。2021年から複数のテクノロジー系出版物に寄稿しており、特にテクノロジー系ハードウェアとコンシューマーエレクトロニクスに興味を持っています。