96
速報:インテル データセントリック イノベーション サミット

カリフォルニア州サンタクララにあるインテル本社で開催されているデータセントリック・イノベーション・サミットに出席しています。インテルは報道関係者に対し、新製品や発表について一切情報を提供していません。私たちはイベントをライブ中継し、発表内容をリアルタイムでお伝えしています。イベントの進行に合わせてブラウザを更新するか、定期的にこの記事をご覧ください。

データセンター マーケティング担当ゼネラルマネージャーのLisa Spelman 氏が登壇し、議題の詳細について説明しました。

インテルのデータセンターグループ担当エグゼクティブバイスプレジデント兼ゼネラルマネージャーであるナビン・シェノイ氏が基調講演を行います。インテルは近日中にロードマップの最新情報を発表する予定です。 

シェノイ氏は、自動運転などの新技術がかつてない量のデータを生み出していることを説明しています。自動車は1時間あたり4TBのデータを収集し、クラウドに共有してAIモデルの学習に利用しています。インテルとパートナー企業は、これらのデータを記録、伝送、保存、処理するための技術を開発しています。

Intel は、クラウド、ネットワーク、AI への新たな重点に基づいて、総アドレス可能市場 (TAM) 予測を更新しました。

インテルのカスタムプロセッサ事業は急速に成長しており、現在、クラウドサービスプロバイダーに販売するCPUの50%がカスタム設計となっています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

画像

1

2

5Gも大きな収益源です。シェノイ氏は、エッジ5Gアプリケーション向けの小型サーバーについて語っています。

AIも急速に成長しています。 

インテルは、新しいインテル スマート NIC により、ネットワークへの取り組みを拡大しています。この新しいデバイスは、FPGA とイーサネット技術を 1 つのパッケージに統合しています。

Intelはストレージ階層の再構築を続けています。同社は、ストレージとメモリの両方のアプリケーション向けに、3D XPointをベースとしたOptane製品を発表しました。一般的な3D NANDには、MLC、TLC、QLCなど、階層構造のギャップを埋めるための様々な種類があります。

メモリとして使用される 3X Point の Optane Persistent Memory は、業界を再定義できるはずです。

Googleのプラットフォーム担当バイスプレジデント、バート・サノ氏がシェノイ氏と共にステージに登場しました。サノ氏は、GoogleとOptane Persistent Memory DIMMに関する同社の取り組みについて講演するために来られました。Googleは先日、Intelがインフラストラクチャ・パートナー・オブ・ザ・イヤーを受賞したことを発表しました。

Google、SAP、Intelは、Cascade Lake Xeonと連携し、Optane Persistent Memory DIMM上でSAP HANAワークロードを実行するために協力しています。Sano氏によると、この新技術は通常のDRAMに比べて多くの利点を提供します。

Intelは昨日、初の量産DIMMを出荷しました。これは新たな発表です。ShenoyがSanoに、生産ラインから出荷された最初のIntel Persistent DIMMを贈呈しました。まさにコレクターズアイテムと言えるでしょう。

さて、同社はCPUについて語ります。同社は20年間で2億2000万個のXeonを出荷してきました。上のグラフは、長年にわたる革新的な開発のすべてを概説しています。

Xeon Scalableは、IntelのXeonファミリーにおける過去10年間で最大のアップデートです。採用率は記録的な速さで、さらに加速を続けています。

インテルは、XeonのAIパフォーマンスを推論ワークロードで1年間で277倍、トレーニングパフォーマンスで240倍向上させました。その多くはAVX-512の導入によるものです。インテルはAI向けXeonプロセッサーを10億ドル相当販売しました。


Cascade Lake Xeonは年末に登場します。ハードウェアベースのシリコン緩和策、新しいメモリコントローラ、より高い動作周波数、そしてIntel DL Boostと呼ばれる新しいAI拡張機能を搭載し、Skylakeと比較して11倍のパフォーマンス向上を実現します。

インテルはCascade Lakeの初のライブデモを実施しました。デモでは、強化されたAIパフォーマンスが強調されました。

シェノイ氏は、同社が開発した新しいインターコネクトについて語っています。これにはEMIB、シリコンフォトニクスなどが含まれます。

ジム・ケラーが来ました。

ケラー氏は、インテルの企業規模と多様な技術ポートフォリオが入社の主な理由だと説明した。インテルには成功への強い意欲があると彼は言う。成功に貢献したいという思いから、収益とパフォーマンスに注力している。ケラー氏によると、インテルは0.5ワットから1メガワットまで、幅広い製品を扱っているという。

これはIntelの新しいサーバーロードマップです。Intelの新たなアプローチは、2019年末に登場予定の14nmプロセスを採用したCooper Lakeプロセッサです。10nmプロセスのIce Lakeプロセッサは、2020年に先行して登場する予定です。プラットフォームはソケット互換です。Cooper Lakeは、AIトレーニングワークロード向けにBfloat 16をサポートします。

シェノイ氏が閉会の挨拶を述べました。別の講演者がAIについて議論するために登壇します。

アルテラで名を馳せたナビーン・ラオ氏が壇上に登場しました。ラオ氏はインテルの人工知能製品グループの副社長兼ゼネラルマネージャーです。

画像

1

2

レオ氏によると、AIは汎用パラダイムになりつつあり、進化は急速に進んでいます。アプリケーションはより多くのユースケースに拡大しており、その範囲はエッジからデータセンターにまで及びます。

AIワークロードのあらゆる領域に対応するには、複数のアーキテクチャが必要です。ラオ氏は、インテルのポートフォリオはまさにこのタスクに最適であると述べています。

インテルは、幅広いアプリケーションに対応できる最適なツールの構築に取り組んでいます。AIはまだ初期段階にあります。典型的なAI開発サイクルはデータ収集から始まります。ラオ氏によると、これらのワークロードはXeon上で実行されます。

Intelは、GPUがAIに最適なソリューションであるという神話を打ち破ろうとしています。Intelは、Googleが導入したbfloatを標準化しています。これにより、低精度の演算を効率的に実行できるようになり、パフォーマンスが向上します。

最初の商用 NPP は 2019 年に登場します。第 1 世代の Lake Crest に比べて 3 ~ 4 倍のゲインが得られます。

インテルのAIグループの50%はソフトウェア開発に注力しています。基盤はライブラリ開発者から始まり、ライブラリはオープンソースネットワークへと上流へと移行していきます。スタックは急速に進化しています。目標は、複雑さを抽象化し、一般的な開発者にとってよりアクセスしやすいテクノロジーを提供することです。

IntelのnGRAPHは、アプリケーションをあらゆる種類のハードウェアに適用することを可能にします。これは、IntelのAIに対する多角的なハードウェアアプローチと相性が良いです。

画像

1

2

デモのスライドとIntelのパートナー企業による事例をいくつかご紹介します。ハイライトとして、Xeon CPUやOmni-Pathネットワークなど、複数の種類のIntelハードウェアを同時に活用する様々なAIワークロードの統合が挙げられます。

Intel は AI エコシステムの構築に多面的なアプローチを採用しています。

DCG担当バイスプレジデント兼CSPプラットフォームグループGMのレイジャンヌ・スキルン氏が登壇しました。これは、IntelのXeonプロセッサにとって最も重要な市場セグメントの一つです。

スキラーン氏は、クラウドは10年の開発期間を経てもなお成長分野であると考えています。「クラウドはデジタル変革の基盤です。」これらすべてがインテルの大きな収益につながります。この分野における驚異的な収益成長は加速しており、この成長を牽引しているのはスライドの右側に記載されている様々なセグメントです。

インテルのCPUは、ネットワークやストレージといった「隣接技術」と組み合わせることで、顧客向けのカスタムソリューションの設計を支援します。インテルは、大手クラウドサービスプロバイダー向けにカスタムXeonも開発しています。インテルは、クラウドサービスプロバイダー向けに独自にカスタマイズされた、ロードマップ外の30種類のカスタムSKUを保有しています。インテルはこの分野で10社の大口顧客を抱えています。また、インテルは自社IPに加え、サードパーティのIPも活用してセミカスタムチップを開発することも可能です。このアプローチはASICにも適用されます。

インテルは200名のエンジニアを擁し、130件ものカスタムプロジェクトに取り組んでいます。インテルはTencentと協力し、世界中に10億人のユーザーを抱えるWeChatプラットフォーム向けにAIワークロードのパフォーマンスを最適化しました。その結果、AI推論パフォーマンスが16倍向上しました。このプロジェクトは、AWSとの共同プロジェクトでAIトレーニングワークロードのパフォーマンスを7.4倍向上させた例の1つです。

インテルは、クラウドサービスプロバイダーの顧客によるサービスプロモーション支援に1億ドルを投じる予定です。また、大規模顧客が自社のラボを訪れ、初期段階のハードウェアをテスト・認定する機会も提供しています。

スキルレン氏がプレゼンテーションのまとめをしています。これでプレゼンテーションは終了です。本日の残り時間は技術セッションが続きますので、今後の発表にご期待ください。