50
インテルとソフトバンクがAIデータセンター向け電力効率の高いHBM代替技術で提携、と報道
ラム
RAM (画像提供:Shutterstock)

アメリカの半導体大手インテルは、日本のテクノロジー・投資大手ソフトバンクと提携し、HBMに代わる積層型DRAMの開発に着手した。日経アジアによると、業界大手2社は、インテルの技術と東京大学を含む日本の学術機関の特許を基盤としたプロトタイプを開発するため、Saimemoryを設立した。同社は2027年までにプロトタイプを完成させ、量産化の可能性を評価し、2020年代末までに商用化することを目標としている。

ほとんどのAIプロセッサはHBM(高帯域幅メモリ)チップを使用しており、これはAI GPUが処理する膨大な量のデータを一時的に保存するのに最適です。しかし、これらのICは製造が複雑で、比較的高価です。さらに、発熱が早く、比較的多くの電力を必要とします。今回の提携は、DRAMチップを積層し、より効率的な配線方法を見つけることで、この問題を解決しようとしています。これにより、積層DRAMチップの消費電力は、同様のHBMチップと比較して半分に削減されます。

半導体企業が3D積層DRAMの実験を行うのは今回が初めてではありません。サムスンは昨年早くも3D積層DRAMの計画を発表しており、NEO Semiconductorも3D X-DRAMの開発に取り組んでいます。しかし、これらの企業はチップあたりの容量拡大に注力しており、メモリモジュールの容量は512GBを目指しています。一方、Saimemoryは消費電力の削減を目指しています。これは、AIの消費電力が年々増加している中で、データセンターにとって切実に求められているものです。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

ジョウィ・モラレスは、長年のテクノロジー業界での実務経験を持つテクノロジー愛好家です。2021年から複数のテクノロジー系出版物に寄稿しており、特にテクノロジー系ハードウェアとコンシューマーエレクトロニクスに興味を持っています。