
IBMはQuantum Summit 2023で、興味深い精神でステージに立った。それは、物事が思い通りに進むことへの畏敬の念に近いものだった。しかし、今日の量子コンピューティング――次から次へと続くブレークスルーによってIBMのロードマップを大きく変えつつある量子コンピューティング――は、統合するのが非常に困難だった。IBMの見解では、量子コンピューティングの未来は、これ以上ないほど自由度が高い。IBMは同イベントで、同社初の実用規模の量子プロセッサーである133量子ビットのHeron量子処理ユニット(QPU)や、量子特化型スーパーコンピューティング・アーキテクチャーである自己完結型Quantum System Twoなど、最先端デバイスを発表した。そして、これらの最先端デバイスには、最終的にはさらなる改良が求められる。
その後陳腐化するブレークスルーは、量子の「理解のプラトー」とでも呼ぶべき領域に、加速度的に突き当たることを意味します。半導体はすでにこのプラトーを突破しており、最新のCPUやGPUは、量子効果が数学を破綻させ始める実用的な基本設計限界に達しつつあります。このプラトーを克服することは、実用性と理解が、少なくともムーアの法則が続く間は、研究開発がある程度自立的に行えるだけの十分な規模になったことを意味します。
IBM Quantum Summit 2023 における量子ロードマップ
画像
1
の
2

IBM Quantum Summit 2023 - Heron、Quantum System Two、そして今後10年間
エラー訂正 (ZNE 技術による) とアルゴリズム性能 (量子ビット ゲート アーキテクチャの改善と併せて) という 2 つの部分から成るブレークスルーにより、IBM は、2033 年までに運用上有用な量子ゲートを 10 億個達成することを検討できるようになりました。有用な量子コンピューティング (従来は他では得られなかったコンピューティング) を引き出すには、133 個の量子ビットをそれぞれの環境内で比較的良好な状態に保つだけでよいというのは、驚くべき偶然 (研究努力と人間の創意工夫から生まれた偶然) です。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
「開発」と「イノベーション」のロードマップは、IBMが超伝導量子ビットをどのように考えているかを示しています。これは、半導体で既に学んだように、ハードウェアレベルの改善とスケーラビリティレベルの改善を並行してマッピングするものです。スーパーコンピューティングの取り組みを通じて見てきたように、真にモノリシックなアプローチなど存在しません。スーパーコンピューティングのすべての部分は(必然的に)数千の個別のアクセラレータに効率的に分散されています。CPUは、複数の異なるコア、レジスタ、および実行ユニットを編成および調整することで、より優れたパフォーマンスを発揮します。CerebraのWafer Scale Engineでさえ、ウェーハレベルのコンピューティングユニットを超えて拡張できます。これまでのところ、面積やコンピューティング密度を増やすことでそのパワーをさらに発揮する必要がないほど強力であることが証明されたアクセラレータ、つまりコンピューティングユニットはありません。私たちの脳と学習能力だけが、唯一の既知の例外を提供しているようです。
IBMのモジュール式アプローチと、今年のHeronでより堅牢なQPU内およびQPU間通信の導入に注力していることは、同社が品質とスケーラビリティの間で綱渡りをしていることを認識していることを示しています。異なるQPU間での並列実行を可能にするHeronの特徴的な設計要素の1つであるチューナブル・カプラの開発に、ハードウェアと科学者が費やした数千時間もの時間も、その重要性を改めて認識させてくれます。1つのレバーを強く押すということは、他のシステムが追いつく必要があることを意味します。IBMはまた、Flamingoの計画されている4つのバージョンなど、さらなるイテレーションを通じて、内部および外部のカップリング技術(Heronのスケーラビリティを考慮して既に開発済み)を着実に改善していく予定ですが、これらの技術は依然としてQPUあたり最大156量子ビットまでのスケーリングにとどまっています。
スケーラビリティ問題と、量子ビットの品質 x 密度 x テストの容易さという方程式をどのように解決するかを考えると、ティック(品質を犠牲にすることなく、テストと製品化の観点から実現可能な密度増加)を実現することはより困難かもしれません。しかし、開発の片側がスケーラビリティであるならば、もう片側は実際にスケーリングする対象(この場合はIBMの超伝導量子ビット自体)の品質に関係します。Heron自体も、ゲート設計、アクセス性、そして量子処理能力を向上させるために、内部の量子ビットアーキテクチャを大幅に再配置しました。これはIntelの量子ビットと似ています。Flamingoの設計に計画されている反復的な改善は、これを裏付けているようです。
ユーティリティレベルの量子コンピューティング
今日の量子コンピューティングアルゴリズムには、スイートスポットがあります。ゲート深度がおよそ60程度に収まるアルゴリズムは、実用的な量子コンピューティングを可能にするのに十分な複雑さを備えているようです。おそらく、ここではIntelのPentium 4 CPUを搭載したNetBurstアーキテクチャを考えるのが適切でしょう。命令パイプラインが深すぎると、ある程度を超えると逆効果になります。分岐予測ミスは、古典コンピューティングであれ量子コンピューティングであれ、コンピューティング全般において深刻な問題です。そして、量子コンピューティング(現在もノイズの多い中規模量子コンピューティング(NISQ)の時代にあるように)は、半導体よりも多様な擾乱場に対して脆弱です(結局のところ、プロセッサを氷点下に冷却し、標準電圧を超える電圧を印加することで達成されるオーバークロックの世界記録があります)。しかし、私たちが本質的に存在の基本単位である原子、さらには素粒子を操作して、私たちにとって有用なものにしているという事実を考えると、量子コンピューティングがそれに匹敵する脆弱性を持つことは理解できるのかもしれません。
有用な量子コンピューティングは、パッケージ内で利用可能な量子ビット数の増加(例えば、中性原子技術に基づく1,000量子ビット製品の発表など)と単純に相関するものではありません。しかし、有用な量子コンピューティングは常にその限界の中で限界まで引き伸ばされており、ある基本的な限界(量子ビット数)にぶつからなくても、別の限界(高量子ビット数における不安定性)にぶつかったり、エンタングルメントのコヒーレンスと寿命、エンタングルメントの距離と容量、結果の正確性、その他さまざまな要素の問題に取り組んだりしています。これらのスケーラビリティの問題の一部は、特定のCPUアーキテクチャのコアなど、異なる分散コンピューティングユニット間の効率的なデータ転送という同じフレームワーク内で視覚化できます。これらのフレームワーク自体は、ハードウェアベースの情報処理およびルーティング技術(AMDのInfinity FabricやNvidiaのNVLinkなどが思い浮かびます)など、さまざまな方法で解決できます。
133量子ビット規模で既に量子コンピューティングが実用化されているというこの特徴は、IBMが100×100グリッドを占有する有用なアルゴリズムを中心とした量子コンピューティング関連の課題を優先し続ける理由の一つでもあります。この量子コンピューティングは、トランジスタで実現できるものと同程度に小さいゲートグリッドにおいてさえ、既に古典コンピューティングを凌駕する実用性を示しており、この移行の規模、つまりこれら2つのコンピューティングの世界がいかに異なるかを示しています。
さらに、エラー軽減とエラー訂正、つまり量子コンピュータに解かせたい問題に対する真の答え(グラウンドトゥルースレベル)を抽出するという課題もあります。量子干渉を利用して量子計算を適切なタイミングで崩壊させ、望む結果が得られると確信できる、あるいは少なくとも修正に十分近い結果を得て、その後、巧妙で画期的なアルゴリズムによってノイズ(役に立たない計算結果、あるいは正解とまだ淘汰されていない誤答の間の値の差)を相殺できるような方法にも限界があります。
上記は、現在、量子ビットの真の有用性と、それらの量子ビットを操作して有用なアルゴリズム実行計算ユニットにする方法を制限している要素のほんの一部です。これは通常、量子ビットの品質と呼ばれ、利用可能な量子ビットの純粋な数とどのように関係するか、またどのように関係しないかがわかります。しかし、多くの有用な計算はすでに 133 量子ビット幅の量子処理装置で実現できるため (IBM が Eagle から Heron にかけてわずか 6 量子ビットの増加に落ち着き、Flamingo では最大 156 ユニットまでしか拡張できないのには理由があります)、同社はこの最適な量子ビット幅を数年にわたる継続的な再設計で維持することを目指しています。IBM は、これらの 133 量子ビットのコヒーレンス、安定性、および精度を高め、分散型の高度に並列化された量子コンピューティングという、おそらくより困難な課題を克服することで、Heron サイズの QPU から正しい結果をより簡単に抽出できるようにすることに重点を置いています。これはまたしてもワンツーパンチであり、量子コンピューティングのプラトーのこれまで以上に高い領域を登る速度の向上から生じるものである。
しかし、IBMは依然としてこの壁を突破したいと考えている。効率と精度を高く保つ限り、Eagleのような127量子ビットQPUよりも、Flamingoのような156量子ビットQPUを200個組み合わせる方がはるかに優れているのだ。オリバー・ダイアル氏によると、「1,000量子ビット製品」であるCondorは、ある程度ローカルで稼働しているという。Condorは1,000量子ビットプロセッサとなる予定で、今年のQuantum Summitのロードマップにも、実際の焦点であるHeronと同様に含まれていた。しかし、IBMは現時点では実現可能だとは考えていないようだ。
IBMは、実験的なCondorチップ(製品として日の目を見ることはない1000量子ビットのハロー製品)内で、1,000個すべてのジョセフソン接合を生成することに成功しました。このチップは研究所内で動作しており、IBMはCondorが計算上有用な量子ビットを生成したことを証明できます。しかし、その量子ビット深度では、このようなデバイスのテストには莫大な費用と時間がかかるという問題があります。基本的なレベルでは、1,000量子ビットの品質と、それらの相互作用と相互接続のますます複雑化する可能性領域を保証することは、133量子ビットのHeronで同じ要件を保証するよりも困難でコストがかかります。IBMでさえ、研究所内のCondor QPUの面積の約4分の1をテストし、量子ビット接続が機能していることを確認することしか考えていません。
しかし、Heronはどうでしょうか?Heronは、仕様通りに動作していること、つまり正確な結果、あるいは少なくともZNEなどの技術で修正可能な計算上有用な結果を提供していることを迅速に検証するために作られています。つまり、Heronは既に有用な成果を得られるだけでなく、実質的にすべての重要な分野において市場投入までの時間を大幅に短縮できる製品なのです。HeronはIBMが量子コンピューティングの基本単位とみなすものであり、特定のワークロードにおいて従来のシステムを凌駕するほどの性能と安定性を備えています。しかし、それが量子コンピューティングであり、そのニッチな領域なのです。
量子中心のスーパーコンピューティング時代
Heronは、IBMが量子演算処理装置(QPU)の大量アクセス時代へ参入する最初の製品です。来年発売されるFlamingoは、QPU間結合アーキテクチャをさらに強化し、さらなる並列化を実現します。その考え方は、ポストクラシカルな実用性を備えたベースレベルでスケーリングし、それを最低限の品質基準として維持することです。その時点になって初めて、IBMは密度をスケールアップし、コンピューティング能力を適切に飛躍的に向上させることができるかもしれません。それは、同様の生産性で実現でき、スケーラビリティが量子演算の有用性を維持するのにほぼ完璧になった時です。
何百個ものQPUを量産する必要がまだなかったのです。実用性に欠けていたのです。IBMの過去のロードマップにおけるカナリア、ファルコン、イーグルは、大規模製造の時代を先導するものとして意図されたものではありません。それらはプロトタイプ、科学機器、探究、そして実用的な量子コンピューティングへの道における概念実証でした。実用性がどこから始まるのか、私たちには分かりませんでした。しかし今、私たちは知っています。なぜなら、そこに到達したからです。
Heronは、人間のコンピューティング能力の最先端に位置する量子コンピューティングチップという、新たに生じたニーズにIBMが最もよく応えられる設計だと考えています。つまり、従来のコンピューティングシステムでは実現できないこと(特定の領域において)を実現できるチップです。宇宙の特定の、しかしより深い層を探求できるチップです。IBMがこの新たな段階を「量子中心のスーパーコンピューティング」と呼ぶのは、まさにこのことを意味しています。
古典システムは、それ自体も、そしてそれが私たちの現在の現実、システム、そして社会を構成する方法も、決して必要ではなくなることはないでしょう。また、量子コンピューティングそのものを可能にするレイヤーとしても機能します。量子コンピューティングは、中間結果を伝達・保存したり、最終的な情報状態を編み込んだりすることで、正しい答えを導き出したりします。量子コンピューティングは、質の高いステップを一つずつ提供します。「量子中心」という言葉は、量子コンピューティングが、材料科学、より高度な物理学、化学、超伝導といった分野、そして基本的に古典システムが限界に対する理解を深める上でますます鈍化しているあらゆる分野において、発展の中核を担うことになるということを意味します。
Quantum System Two、Transmonのスケーラビリティ、サービスとしての量子
しかし、IBMのアプローチとトランスモン超伝導量子ビットの選択により、ローカルインストールの商用化には一定の困難が伴う。同社がほぼホールセールの新しい量子コンピューティング システムに名付けた Quantum System Two は、さまざまな QPU インストール (Heron と Eagle の両方) で動作することが実証されている。Quantum System Two や類似の自己完結型製品のスケーリングが技術導入のボトルネックになるかどうかを尋ねられたとき、IBM の CTO オリバー・ダイアルは、それは確かに解決が難しい問題だが、その点で IBM がすでに実績を上げていることを考えると、時間とともにコストと複雑さをさらに削減できる能力に自信があると述べた。今のところ、IBM の量子の有用性は、ローカルインストールを実行して実現するよりも、クラウドと量子コンピューティング フレームワーク Quiskit を介して遠隔でロック解除する方が簡単である。
Quiskitは、ユーザーがIBMの量子コンピューティング製品を研究活動に実際に導入するための最適な手段です。Amazon Web Servicesを通じてNvidia A100のプロセッサーをX台レンタルしたり、MicrosoftのxCloudサービスを通じてシンプルなXbox Series Xコンソールをレンタルしたりするのと同じです。IBMのQuantum Summit当日、この自由はIBMが導入したHeron QPU内の有用な量子回路へのアクセスも意味しました。また、接続してすぐに使える過冷却トランスモン量子ビットの箱を届けるよりも、クラウド経由で自宅に量子ビットを届ける方がアクセスを拡張する方がはるかに簡単です。
これはIBMの超伝導量子ビットへのアプローチにおける一つの難点です。過冷却チャンバーを現地で運用し、その周囲に必要なインフラを構築する意志、資金、専門知識を持つ企業は多くありません。これは数キロメートルにも及ぶ配線を収容する複雑な機構であり、IBMの開発と改良のもう一つの焦点であり、昨年発表されたフレキシブルリボンソリューションに結実しました。このソリューションはQPUとの接続を大幅に簡素化しました。
量子コンピューティングは他に類を見ないほど複雑な問題であり、IBMの冷蔵庫が並ぶフィールドで大量生産される数百、数千のHeronに民主的にアクセスするために必要なのは、結局のところ、安定したインターネット接続だけです。物流はまさにそれであり、IBMのQuantum Summitでは、Quiskitランタイム・プラットフォームの公式バージョン1.0を導入することで、いくつかのニーズに対応するための必要な措置も講じました。考えさせられるのは、実用的な量子コンピューティングの時代が、サービスとしての量子コンピューティングの時代の幕開けと重なっているように見えることです。これは本当に早かったです。
終わりに
IBMが約束しているのは、有用で大量生産可能、そして大量アクセス可能な量子コンピューティングの時代です。しかし、現状では規模の問題があります。また、量子システム2、5、あるいは10を導入するコスト効率が、他の量子ビットアプローチ(量子コンピューティングへのトポロジカルアプローチ、酸素空孔ベースのイオントラップ、あるいはIBMのアプローチとは全く異なるアーキテクチャを持つフラクソニウム量子ビットなど)と比較してどれほど優れているかという問題もあります。多くの量子ビット技術が量産段階に到達する可能性は高いでしょう。そして、その場合でも、人間の創意工夫の道のりには、最近打ち切られたIntelのItaniumや、AMDのBulldozerにおける時代遅れのx86コンピューティングへのアプローチのように、失敗作が至る所に存在することは間違いありません。
量子の未来が私たちをどこへ導くのか、そしてそれがIBMのロードマップと全く同じものになるかどうかも、ここで議論したIBMのロードマップと全く同じものになるかどうかは分かりません。しかし、ロードマップはIBM自身にとっても、テクノロジー業界全体にとっても、永遠に乾き続ける絵のようなものです。ブレークスルーは日々、どちらの側でも起こっているようで、問いかけるのが早ければ早いほど、最大の潜在能力が秘められているというのは科学の真実です。今日の有望な量子ビット技術は、性能、有用性、操作の容易さとコスト、品質、そして拡張性といった現実的な問いに、少なくともIBMが提案しているトランスモンベースの超伝導量子ビット、Heron、スケーラブルなFlamingo、そして(まだ証明されていないものの、示唆されている)Heronのような有用な量子処理装置を最終的に大量生産できる能力と同等以上のものでなければなりません。これらはすべて、ノイズの多い中規模量子 (NISQ) の時代に私たちが留まっているときに起こります。
オリバー・ダイアル氏がインタビュー中に非常に精力的に、そして熱心に語りかけていたのも無理はありません。IBMはすでに量子コンピューティングの有用性を実現し、品質と拡張性、開発、そしてイノベーションという2つの最も重要な課題への答えを探し始めています。そして、これは素晴らしい科学者チームの協力によって実現し、予想を何年も早く達成できたと、ダイアル氏は嬉しそうに認めました。2023年、IBMは127量子ビットの量子処理装置「Eagle」内で有用な量子コンピューティングを実現し、改良されたHeronチップに向けて完成度を高めるプロセスを進めました。それ自体が驚異的な偉業であり、だからこそ、この時点で拡張性の問題について議論できるのです。だからこそ、ロードマップをそれに合わせて変更する必要があるのです。そして、この量子コンピューティングの世界では、これは素晴らしいフォローアップの質問なのです。
おそらく今、最も注目すべき問いは、「有用なHeron QPUでどれだけの改善が見込めるか?」ということでしょう。一体どれだけの鍵のかかったドアが半開きになっているのでしょうか?
Francisco Pires 氏は、Tom's Hardware のフリーランス ニュース ライターであり、量子コンピューティングに関心を持っています。