NVIDIAは、人工知能(AI)および機械学習(ML)アクセラレーション用チップのリーディングカンパニーです。そのため、チップ設計へのAI適用において、NVIDIAがパイオニアの一角を占めるのは当然と言えるでしょう。本日、NVIDIAは論文とブログ記事を公開し、AutoDMPシステムがGPUアクセラレーションによるAI/ML最適化を用いて最新のチップフロアプランニングを加速し、従来の手法と比べて30倍の高速化を実現する仕組みを明らかにしました。
AutoDMPは、Automated DREAMPlace-based Macro Placement(DREAMPlaceベースのマクロ配置自動化)の略称です。チップ設計者が使用する電子設計自動化(EDA)システムにプラグインして、プロセッサの構成要素の最適な配置を見つけるという時間のかかるプロセスを高速化・最適化するように設計されています。NVIDIAのAutoDMPの実例の一つでは、このツールはAIを活用し、256個のRSIC-Vコア(270万個のスタンダードセルと320個のメモリマクロを含む)の最適レイアウトを決定するという問題に取り組みました。AutoDMPは、1台のNVIDIA DGX Station A100上で最適なレイアウトを見つけるのに3.5時間を要しました。
マクロ配置はチップのランドスケープに大きな影響を与え、「面積や消費電力など、多くの設計指標に直接影響を及ぼします」とNVIDIAは指摘しています。配置の最適化は、チップのパフォーマンスと効率を最適化するための重要な設計タスクであり、顧客に直接的な影響を与えます。
AutoDMPの仕組みについて、NVIDIAは、同社の解析的配置ツールは「配置密度の制約下で配線長の最適化問題として配置問題を定式化し、数値的に解く」と述べています。GPUアクセラレーションアルゴリズムは、従来の配置手法と比較して最大30倍の高速化を実現します。さらに、AutoDMPは混合サイズのセルをサポートしています。上のアニメーションでは、AutoDMPがマクロ(赤)とスタンダードセル(灰色)を配置し、制約領域内で配線長を最小化している様子を見ることができます。
AutoDMPの使用による設計速度のメリットについては既に説明しましたが、定性的なメリットについてはまだ触れていません。上の図では、テストチップの7つの代替設計と比較した場合、AutoDMPで最適化されたチップは、配線長、消費電力、最悪ネガティブ・スラック(WNS)、およびトータル・ネガティブ・スラック(TNS)において明確なメリットを示していることがわかります。線より上の結果は、AutoDMPが様々な競合設計に対して優位に立っていることを示しています。
AutoDMP はオープンソースであり、コードは GitHub で公開されています。
NVIDIAは、AIを活用して最適なレイアウトを実現する最初のチップ設計者ではありません。2月にSynopsysとそのDSO.ai自動化ツールについてレポートしました。このツールは既に100件の商用テープアウトに使用されています。Synopsysは、このソリューションを「箱に入った熟練エンジニア」と表現しました。さらに、DSO.aiはトレンドのマルチダイシリコン設計に最適であり、エンジニアは退屈な反復作業から解放され、その才能をより革新的なことに注力できるようになると付け加えています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
マーク・タイソンはトムズ・ハードウェアのニュース編集者です。ビジネスや半導体設計から、理性の限界に迫る製品まで、PCテクノロジーのあらゆる分野を網羅的にカバーすることに情熱を注いでいます。