Intelと液浸冷却のスペシャリストであるGRCは、高性能コンピューティング(HPC)環境における液浸冷却技術の潜在的な用途について、提携して深く探究しています。The Register紙によると、両社は最近、より普及している空冷式冷却ではなく液浸冷却技術を採用することによるデータセンターの実際のメリットを検証した共同ホワイトペーパーを発表しました。そのメリットとは?電力効率の向上、環境への影響の低減、そしてコンピューティング密度の向上。まさに三位一体と言えるでしょう。
世界中のデータセンターは、すでに世界の利用可能な電力の1.5~2%、約3400TW/hを消費していると推定されています。ちなみに、ビットコインマイニングの環境への影響については多くの議論があります。しかし、ビットコインマイニングが消費する電力は、世界の電力消費量のわずか0.12%未満に過ぎません。マイナーがマイニング効率の向上に投資しているため、その割合はさらに減少しています。
HPCの電力消費と環境への影響は、エネルギー効率向上の議論の中心となっています。特に、HPCのエネルギーフットプリントは今後10年間で13%近く増加する可能性があるという予測があるため、その重要性は増しています。エクサスケール・スーパーコンピューティングへの取り組みの高まりと、新たな計算手法である量子コンピューティングの登場とスケーリングを考えると、この状況が現実のものとなる可能性は容易に想像できます。
もちろん、エネルギー効率が高まれば、同等かそれ以上のワークロード パフォーマンスで運用コストが下がることになります。HPC オペレーターなら誰でもその可能性に飛びつきたいと思うはずです。
さらに火に油を注ぐのは、HPCのエネルギー消費量の約40%が実際のコンピューティングではなく、単なる冷却に使われていることです。そのうち10~15%は、サーバーを構成する様々なコンポーネントの回転ファンから発生しています。これが、HPCの電力使用効率(PUE)が10年もの間1.6という壁に阻まれている一因です。さらに、トランジスタとチップの密度が高まるにつれて(AMDのMI 300 APUやNvidiaのGraceスーパーチップを考えてみてください)、空冷は実用限界に近づきつつあります。冷却ファンが放熱できる熱量には限界があるのです。
液浸冷却を追加すると、回転する(つまり故障しやすい)ファンの数を減らし、システム全体の温度を改善できます。しかし、どんなに優れたエアフロー設計でも、冷気が届かない箇所は必ず存在します。空冷はサーバーの熱出力の30%しか吸収できず、最も熱負荷の高い箇所に集中していると推定されています。
回転ファンをなくし、ヒートシンクを通して誘電液を流すことで、コンポーネント間のデッドスペースが自然に減少します。これによりサーバーの密度が向上し、インフラコストの削減にもつながります。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
もちろん、液浸冷却の世界は必ずしもバラ色ではありません。だからこそ、この技術は期待されるほど(あるいは期待されるほど)普及していません(あるいは普及すべきかもしれないほど)。Omdiaのデータセンター物理インフラ担当シニアプリンシパルアナリスト、モイセス・レヴィ氏は、液浸冷却にはより専門的な設置・保守コストがかかると警告しています。また、冷却機構の監視もより専門的になり、フィルタリングシステムのメンテナンス、漏れの兆候となる可能性のある微妙な圧力変化を検知できるソフトウェア、そして誘電性(非導電性)流体自体の品質監視などが必要になります。
さらなるメリットとして、液浸冷却液を使用すると、データセンターは発電と補助冷却用の水消費量も削減できます。2021 年には 5.13 × 108 m3 になると推定されています。
インテルは長期的な戦略を掲げており、今回の提携は、5月初旬に発表した18,580平方メートルの「メガラボ」に7億ドルを投資するという同社の発表に基づくものです。このラボは、様々な冷却技術を用いて自社のデータセンターポートフォリオの検証、テスト、デモを行うことを目的としています。この施設への投資に加え、インテルは台湾部門が自社チップ向け液浸冷却システムのオープンリファレンスデザインを開発していることも発表しました。
Francisco Pires 氏は、Tom's Hardware のフリーランス ニュース ライターであり、量子コンピューティングに関心を持っています。