2
新たなメモリ研究で100倍の密度向上、コンピューティングとメモリの統合を示唆
シナプス
(画像クレジット:Shutterstock)

材料工学の最先端における新たな研究は、コンピューティングデバイスの性能を真に驚異的に向上させる可能性を秘めています。ケンブリッジ大学に所属する、マルクス・ヘルブランド氏らが率いる研究チームは、電圧を変化させるバリウムスパイクをトンネル状に通したハフニウム酸化物層をベースとしたこの新材料は、メモリと演算処理を担う材料の特性を融合させると考えています。つまり、このデバイスは既存のストレージ媒体の10倍から100倍の密度を実現するデータストレージとして、あるいは演算処理装置として利用できる可能性があるということです。 

Science Advances誌に掲載されたこの研究は、コンピューティングデバイスの密度、性能、そしてエネルギー効率をはるかに向上させる可能性を示しています。実際、この技術(連続範囲と呼ばれるをベースにした一般的なUSBスティックは、現在使用されているものよりも10倍から100倍もの情報を保存できる可能性があります。

問題は、この情報交換にエネルギーコストがかかり、このエネルギーコストが現在達成可能なパフォーマンスの上限を制限している点です。エネルギーが循環する際には、固有の損失も発生し、消費電力(ハードウェア設計における現在のハードリミットであり、半導体設計における優先度が高まっている)の増加と熱の増加につながることを忘れないでください。熱もまたハードリミットであり、ムーアの法則が当面の間、弱々しく前進し続けるように、ますます奇抜な冷却ソリューションの開発につながっています。もちろん、持続可能性という要素もあります。そう遠くない将来、コンピューティングは世界のエネルギー需要の30%を消費すると予想されています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

電子イメージング

透過型電子顕微鏡(TEM)で撮影されたこれらの写真は、動的に変化するバリウムスパイクによってトンネルされた際に、酸化ハフニウムの堆積(図Aに示すような無秩序な自然堆積)における秩序性の向上を示しています。(画像提供:ケンブリッジ大学/マーカス・ヘルブランド他)

しかし、研究チームがバリウムスパイクの高さを動的に変化させ、その電気伝導性を細かく制御できることを発見した時、研究は面白くなりました。スパイクは約20ナノ秒の速度でスイッチング能力を発揮できることを発見しました。つまり、その時間枠内で電圧状態を変化させ(つまり、異なる情報を保持し)、スイッチング耐久性は10の4乗回以上、メモリウィンドウは10以上であることがわかりました。つまり、この材料は高速ですが、現状では電圧状態の変化に耐えられる最大回数は約1万回です。これは決して悪い結果ではありませんが、驚くべき結果でもありません。

これは、MLC (マルチレベル セル) テクノロジで実現できる耐久性に相当し、必然的にその用途は制限されます。つまり、この材料を処理媒体として使用する場合 (計算とその中間結果を保存するために電圧状態が急速に変化する) です。

大まかに計算すると、約20ナノ秒のスイッチングで動作周波数は50MHz(ナノ秒あたりのサイクル数に換算)になります。システムが様々な状態をフルスピードで処理する場合(例えばGPUやCPUとして動作している場合)、バリウムブリッジは0.002秒あたりで動作を停止(耐久限界に達する)することになります(ちなみに動作周波数は50MHzです)。これでは、処理装置として十分な性能とは言えません。

しかし、ストレージはどうでしょうか?そこで登場するのが、メモリ容量の点で「10~100倍の密度」を誇るUSBスティックです。これらのシナプスデバイスは、今日の最も大容量のUSBスティックに搭載されている最も高密度のNANDテクノロジーよりもはるかに多くの中間電圧状態にアクセスできます。その数は10倍から100倍です。

10 テラバイト、あるいは 100 テラバイトの「USB 7」スティックを手に入れたいと思わない人はいないでしょう。

バリウムブリッジの耐久性とスイッチング速度に関してはまだ改善の余地がありますが、この設計は既に魅力的な概念実証と言えるでしょう。さらに良いことに、半導体業界では既に酸化ハフニウムが使用されているため、ツールや物流面での課題は少なくなっています。

しかし、ここに非常に独創的な製品の可能性が存在します。この技術が進歩し、AMDやNvidiaのGPU(現在では約2GHzで動作)の設計に利用できるレベルに達したと想像してみてください。そのグラフィックカードが工場出荷時の状態にリセットされ、完全にメモリとして動作する世界が到来します(ここで、先ほどのUSBメモリと同じ10TBのメモリを搭載したグラフィックカードを想像してみてください)。

AMDとNvidiaが提供していたのが、実質的にプログラム可能なGPUであり、連続範囲ベースのGPUダイが最大ストレージ容量の観点から製品スタックされている世界を想像してみてください(現在のUSBよりも10~100倍高密度だったことを思い出してください)。AI愛好家で、独自の大規模言語モデル(LLM)の構築を試みているなら、これらの合成デバイス、つまりニューロモルフィックトランジスタを適切な数だけ使用して処理関数を実行するようにGPUをプログラムすることができます。モデルの複雑さが増すにつれて、最終的に何兆ものパラメータを持つモデルになるかは予測できません。そのため、メモリの重要性はますます高まっていくでしょう。

グラフィックカード内のトランジスタをメモリとして使うのか、それともグラフィック設定を11まで上げるための見た目重視のアンプとして使うのかを、自由に決められるようになれば、それは一般ゲーマーからハイパフォーマンスコンピューティング(HPC)のインストーラーまで、エンドユーザー次第です。たとえそれが、チップ部品の寿命の計画的な低下を意味するとしても。

いずれにせよ、常にアップグレードしているのではないでしょうか?

しかし、先走り過ぎないようにしましょう。AI開発とその規制ほど危険な問題ではないとはいえ、先のことを夢見ても得られるものはほとんどありません。他のテクノロジーと同様に、準備が整った時に実現するでしょう。もし実現するならの話ですが。

Francisco Pires 氏は、Tom's Hardware のフリーランス ニュース ライターであり、量子コンピューティングに関心を持っています。