インテルは火曜日、百度の Create AI 開発者会議で、NNP-T と呼ばれるインテルのトレーニング用 Nervana ニューラル ネットワーク プロセッサの開発で百度と協力すると発表した。
この協業はハードウェアとソフトウェアの両方に関わっています。ソフトウェア面では、インテルのAI製品グループ担当CVPであるナビーン・ラオ氏が、Baiduのディープラーニングフレームワーク「PaddlePaddle」が、FP16またはINT8 AVX-512ベクトルコードのパフォーマンスを2倍または3倍にするインテルの新しい命令であるCascade LakeのDL Boostを初めて統合したと述べました。
インテルは、ディープラーニングトレーニングアクセラレーターに関して百度と緊密に協力することで、設計が顧客の要求に確実に沿うものになることを期待している。
今年後半に発売されるこのアクセラレータは、少なくとも大手ベンダーとしては初めて、ニューラルネットワークのトレーニング向けにゼロから構築された専用アクセラレータとなります。NNP-Tは、高帯域幅メモリ、高利用率、分散ワークロード向けに最適化されています。16nmプロセスで構築されたNNP-Tは、NVIDIAのVolta V100と同等と謳われていたLake Crest開発版の3~4倍の性能を誇る後継機です。
Intel はまた、Baidu が Intel の Optane DC パーシステント メモリを使用し、安全性が重要なアプリケーション向けのメモリセーフ Function-as-a-Service (Faas) コンピューティング フレームワークである MesaTEE に Intel の Software Guard Extensions (SGX) を活用していることにも言及しました。
Intel は最近、Sunny Cove コアを搭載したディープラーニング推論用の NNP-I M.2 アクセラレータについても発表しました。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。