98
IBM、AIトレーニングを3万倍高速化する「抵抗型」チップを発明

IBM の研究者である Tayfun Gokmen 氏と Yurii Vlasov 氏は、従来の CPU と比較してディープ ニューラル ネットワークのトレーニングを最大 30,000 倍高速化できる Resistive Processing Unit (RPU) と呼ばれる新しいチップの概念を発明した論文を発表しました。

ディープ ニューラル ネットワーク (DNN) は、教師なしまたは教師あり方式でトレーニングできる複数の隠し層を持つ人工ニューラル ネットワークであり、その結果、自ら「学習」できる機械学習 (または人工知能) が実現します。

これは、GoogleのAlphaGo AIが囲碁の学習に用いてきたものと似ています。AlphaGoは、探索木アルゴリズムと、数百万のニューロンのような接続を持つ多層構造の2つのディープラーニングネットワークを組み合わせて使用​​していました。「ポリシーネットワーク」と呼ばれるネットワークは、どの手がAIの勝利に最も貢献するかを計算し、「バリューネットワーク」と呼ばれるネットワークは、局所的な対戦で十分な勝率を得るために、AIがどの程度まで手を予測する必要があるかを推定します。

多くの機械学習研究者は、ディープニューラルネットワークの有望な可能性に注目し始めています。しかし、GoogleのAlphaGoでさえ、そのレベルの知能を達成するには数千個のチップが必要でした。IBMの研究者たちは現在、そのレベルの知能を単一のチップで実現しようと取り組んでおり、数千個のチップを組み合わせることで、将来的にはAI機能のさらなる飛躍的進歩につながる可能性があります。

「RPUアクセラレータのクラスターで構成されたシステムは、例えば、自然な音声認識や世界中の言語間の翻訳、大量のビジネスデータや科学データストリームのリアルタイム分析、膨大な数のIoT(モノのインターネット)センサーからのマルチモーダルセンサーデータフローの統合と分析など、現在では対処不可能な、数兆個のパラメータを伴うビッグデータの問題に取り組むことができるようになる」と研究者らは論文の中で述べている。

著者らは、過去数十年にわたり、機械学習がGPU、FPGA、さらにはASICの導入によって高速化の恩恵を受けてきたと述べています。しかし、アルゴリズムの局所性と並列性を活用することで、さらなる高速化が可能になると考えています。そのために、研究チームは相変化メモリ(PCM)や抵抗変化メモリ(RRAM)といった次世代不揮発性メモリ(NVM)技術の概念を借用しました。

このタイプのメモリだけで達成されるディープニューラルネットワークの加速は、27倍から2,140倍と報告されています。しかし、研究者たちは、NVMセルの設計上の制約の一部が解消されれば、加速はさらに向上すると考えています。研究者たちは、不揮発性メモリをベースに独自の仕様で新しいチップを設計できれば、加速は30,000倍向上すると考えています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

研究者らは、「我々は、重みを同時に保存・処理でき、ファウンドリCMOS技術を用いて数十億ノードまで拡張可能な抵抗性演算ユニット(RPU)デバイスの概念を提案・分析しました。我々の推定によると、現実的な電力と面積の制約下で、単一チップ上で3万倍近くの加速係数を実現できる可能性があります」と述べています。

この種のチップはまだ研究段階にあり、通常の不揮発性メモリがまだ主流の市場に普及していないため、市場に同様のものが現れるまでにはおそらく数年かかるでしょう。しかし、この研究は有望であり、AI研究を可能な限り加速させたいGoogleなどの企業の注目を集める可能性があります。IBM自身も、医療分野などのビッグデータ課題の解決に関心を持っているため、将来的にはIBM自身の事業もこの研究の恩恵を受けるはずです。

ルシアン・アルマスはTom's Hardwareの寄稿ライターです。  @lucian_armasuでフォローできます 

ルシアン・アルマスは、Tom's Hardware USの寄稿ライターです。ソフトウェア関連のニュースやプライバシーとセキュリティに関する問題を取り上げています。