79
インテル、Nervanaニューラルネットワークプロセッサを発表

Intel は、機械学習のパフォーマンスを最大化するために構築されたカスタム特定用途向け集積回路 (ASIC) である Nervana Neural Network Processor (NNP) を発表しました。

飛躍か、それとも追いつくか?

ここ数年、機械学習分野でNVIDIAに追い上げてきたIntelは、機械学習技術に取り組む複数の企業を買収し始めました。その一つがNervanaです。Nervanaは当時、顧客が独自のカスタムディープラーニングソフトウェアを開発し、NervanaのNVIDIA Titan X GPUファームで実行できるように、SaaS(Software as a Service)プラットフォームを提供していました。

しかし、インテルが同社を買収する以前、Nervana社は機械学習のトレーニング向けにシリコンから最大限のパフォーマンスを引き出すことを目標としたカスタムASICの開発にも取り組んでいました。これは、GoogleがTensor Processing Unit(TPU)で採用した手法と同じです。NVIDIAでさえ、最近ではよりカスタムメイドなTensor Core機械学習アクセラレーターへと方向転換し始めています。

Nervana NNP 技術詳細

Nervanaニューラルネットワークプロセッサ(NNP)は標準的なキャッシュ階層を持たず、オンチップメモリ​​はソフトウェアによって直接管理されます。これにより、チップは各ダイで高度な計算処理を実現し、ニューラルネットワークの学習時間を短縮します。

単一チップ上でのニューラル ネットのトレーニングはメモリ帯域幅と電力によって大きく制約されるため、チームは「フレックスポイント」と呼ばれる新しい、より効率的な数値形式を発明しました。

Intelによると、FlexPointはスカラー計算を固定小数点演算として実装することを可能にする。これにより回路が小型化し、消費電力も削減される。しかし、固定小数点演算は通常、ソフトウェアの柔軟性も制限するため、Intelの顧客にとってFlexPointがどれほど魅力的に見えるかはまだ分からない。

今後も続く

Intelはまだパフォーマンス数値を明らかにしていないが、Nervanaは以前、同社の最初のチップがNVIDIAのMaxwellアーキテクチャの約10倍の効率性を持つと予想していると述べていた。しかし、GoogleとNVIDIAは既にこれらの数値を単独で上回っており、NVIDIAは最近、Voltaに続くGPU世代で(少なくとも推論においては)パフォーマンスがさらに大幅に向上すると予告した。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

したがって、Intel の新しいチップも、おそらく Nervana チームが当初想定していたプロセス (28nm) よりも高度なプロセスを使用することで、これらの進歩に対応できるかどうかはまだわかりません。

Intelは、第1世代のNervana NNPを年末までに出荷する予定であり、複数世代のNervana NNPのロードマップを既に策定していると述べています。これは、この製品ラインへの強いコミットメントを示しており、顧客がこのプラットフォームを購入し、使い方を学ぶきっかけとなる可能性があります。