CPU/GPUを越えて:なぜ企業向けのAIにはこれまで以上に総合的なアプローチが必要なのか?

インテルが開催するAI DevConに業界関係者が集結:インテルのAI向けポートフォリオとインテル® Nervana™ニューラルネットワーク・プロセッサーのアップデートを紹介

 

<ご参考資料>
*2018年5月23日に米国で発表された資料の抄訳です

 

インテル・コーポレーション
AI製品事業本部 副社長 兼 本部長
ナヴィーン・ラオ

 

今週、インテルが開催している人工知能(AI)関連の開発者向けとしては初となるイベント「AI DevCon」には人工知能(AI)に取り組む優れた人材が集結しています。私たちは、インテルだけではAIのすべての可能性を解き放つことはできないことを十分に理解しています。開発者コミュニティー、学術機関、ソフトウェア・エコシステムなどを含めた業界全体が一体となって対応する必要があります。

 

そして、本日、AI DevConのステージに登壇した際に、私は業界全体の非常に多くの方々とともにAIに取り組めることに興奮を覚えています。今回のイベントには、デモや研究、そしてハンズオンのトレーニングに参加する開発者の方々も参加しています。さらに、Google*、AWS*、Microsoft*、Novartis*、C3 IoT*などの協力企業も参加しています。この幅広い協力関係によって、AIに向けたさまざまな取り組みのなかで技術革新を加速し、その加速度を維持するために必要なハードウェアとソフトウェアの提供に向けて開発者コミュニティーを共に支援していきます。

 

実際に、AIを中心とした未来のコンピューティングへの移行を加速するために必要なものを考えた際、私たちは総合的かつ企業向けのソリューションを提供する必要があります。このソリューションは、最も幅広いコンピューティングを提供し、ミリワットからキロワットまで対応できる複数のアーキテクチャーを備えたソリューションでなくてはなりません。

 

企業向けのAIは同時に、さまざまなAIのワークロード全体でこれまで以上に研究者が業務を遂行しやすいように、業界がすでに投資しているツール、オープンなフレームワーク、インフラなどを活用し、そして拡張していく必要があることを意味しています。例えば、AI開発者は特定の製品版ソフトウェア・プラットフォームではなく、オープンソースのフレームワークに直接プログラミングすることにますます関心を示しており、これにより開発がより高速かつ効率的に行えるようになります。

 

本日の私たちの発表はこれらのすべてにわたるものであり、さらに開発者や私たちの顧客がAIのもたらすメリットをこれまで以上に迅速に享受するためのいくつかの新しいパートナーシップも発表しました。

 

インテルのAI向けポートフォリオを拡張し、AIワークロードの多様化に対応

最近、インテルが実施した調査では、米国の企業顧客の50%以上が、初期段階のAIへのニーズを満たすために、インテル® Xeon®プロセッサーを搭載した既存のクラウドベースのソリューションを活用していると回答しています。この調査結果は、AIワークロードに必要とされる独自の要件に対応するために、インテル® Xeon®プロセッサー、インテル® Nervana™、インテル® Movidius™、インテル® FPGAなどの広範な企業向け製品群を提供するというインテルのアプローチの正しさを裏付けています。

 

本日紹介した重要なアップデートの1つに、インテル® Xeon® スケーラブル・プロセッサーの最適化があります。この最適化により、前世代製品と比較して、学習(トレーニング)と推論の両方で大幅なパフォーマンスの改善を実現します。AIに向けた取り組みの第一歩として、既存インフラを活用することでTCO(総所有コスト)を抑えたいと考えている多くの企業にメリットを提供します。

 

また、私たちは最新の製品ファミリーであるインテル® Nervana™ニューラルネットワーク・プロセッサー(NNP)のアップデートについても紹介しました。インテル® Nervana™ NNPは、高効率なコンピューティングを実現し、マルチチップの相互接続による真の並列処理モデルに対応するという設計上の明確な目的を持っています。業界では、理論上の最高性能やTOP/s(Tera operations per second)の数値について多く伝えられていますが、事実上多くのコンピューティングにおいて、アーキテクチャーがコンピューティング要素を高度に活用できるメモリーのサブシステムを備えていない限り、これらの数値はあまり意味がありません。さらに、業界で発行されているパフォーマンスに関するデータの多くは、現実のニューラルネットワークの世界では一般的には見られない大規模な正方行列を使用しています。

 

インテルでは、チップからチップへの広帯域幅や低レイテンシー性能などを備えた、ニューラルネットワーク向けのバランスのとれたアーキテクチャーの開発に注力しています。当社のインテル® Nervana™ NNPファミリーの最初の性能ベンチマークでは、コンピューティングの効率と接続性の両面で優位性のある結果を達成しています。ベンチマークの詳細は以下の通りです。

 

A(1536, 2048)とB(2048, 1536)のマトリックスサイズを使用したGeneral Matrix to Matrix Multiplication (GEMM)の運用では、単一チップ上で96.4%以上の実行効率を達成しました1。この結果は、実効性能(理論性能ではなく)で単一チップ上で約38 TOP/sの性能を達成したことになります1。並列処理学習に対応し、複数チップが分散されたGEMMの運用では、ほぼリニアなスケーリングを実現し、A(1536, 2048)とB(2048, 1536)のマトリックスサイズで96.2%のスケーリング効率を達成しています2。これにより、複数のインテル® Nervana™ NNPが相互接続され、ほかのアーキテクチャーにあるようなメモリーの制約から解放されます。

 

私たちは、790ナノ秒以下のレイテンシーを備えた理論帯域におけるチップからチップへの接続効率で89.4%を達成するとともに、これを2.4テラバイト/秒の広帯域かつ低レイテンシーの接続にも適用しています。

これらすべての結果は、単一チップ上で201ワット以下の消費電力で達成しています。そして、これらは、現在、初期パートナーからのフィードバックを収集している、インテル® Nervana™ NNP(開発コード名:Lake Crest)の試作品で達成されたものです

 

現在、インテルでは初の商用版インテル® Nervana™ NNPとなるインテル® Nervana™ NNP-L1000(開発コードネーム:Spring Crest)を2019年に提供できるよう取り組んでいます。このインテル® Nervana™ NNP-L1000では、第1世代のLake Crestとの比較で、学習において3~4倍の性能を実現できるものと期待しています。また、インテル® Nervana™ NNP-L1000では、業界で幅広く採用されているニューラルネットワーク向けの数値形式であるbfloat16にも対応する予定です。今後も、インテル® Xeon®プロセッサーやインテル® FPGAなど、AI向けの製品も順次bfloat16に対応していく予定です。これらは、シリコンのポートフォリオに業界をリードするAIの学習向け機能を搭載するという、包括的かつ一貫したインテルの戦略を実現するための取り組みの一環となるものです。

 

AIを現実世界に
インテルの幅広いポートフォリオは、あらゆる規模の組織が、AIのための取り組みを簡単に始められるよう支援します。例えば、インテルはNovartisと協力し、ディープ・ニューラルネットワークを活用して、創薬の初期段階の主要素となるハイコンテキストなスクリーニングを高速化するために取り組んでいます。両社の協業チームは画像分析モデルの学習のための時間を従来の11時間から20倍以上も高速化し、わずか31分にまで短縮しました4

 

また、インテルはC3 IoTと、最適化されたAI向けソフトウェア/ハードウェアのソリューションであるインテルのAIを搭載したC3 IoT Appliance を中心とした、AIとIoTのアプリケーション開発を高速化するための協業を発表しました。

 

さらに、私たちはTensorFlow*、MXNet*、Paddle Paddle*、CNTK*、ONNX*などのディープラーニング・フレームワークと、フレームワークに依存しないディープ・ニューラルネットワーク(DNN)のモデル・コンパイラであるnGraphを連携させるために取り組んでいます。また、インテルでは、インテルAI ラボがNatural Language Processing Library for JavaScript*をオープンソース化し、NLPアルゴリズムを使用した研究を始めたい研究者を支援することも発表しています。

 

未来のコンピューティングは、ソリューション、つまりは企業向けソリューションの提供に向けた私たちの協力にかかっています。組織はこの企業向けソリューションを活用してAIの持つすべてのパワーを解放することができます。私たちはこの革新的なテクノロジーの開発と普及に向けてコミュニティーや顧客とも協業関係を深め、本日から始まるAI DevConで素晴らしい体験を享受できることを楽しみにしています。

 

 

Tests document performance of components on a particular test, in specific systems. Differences in hardware, software, or configuration will affect actual performance. Consult other sources of information to evaluate performance as you consider your purchase. For more complete information about performance and benchmark results, visit www.intel.com/benchmarks.

Source: Intel measurements on limited release Software Development Vehicle (SDV)

1 General Matrix-Matrix Multiplication (GEMM) operations; A (1536, 2048), B(2038, 1536) matrix sizes

2 Two chip vs. single chip GEMM operation performance; A (6144, 2048), B(2038, 1536) matrix sizes

3 Full chip MRB-CHIP MRB data movement using send/recv, Tensor size = (1, 32), average across 50K iterations

4 20X claim based on 21.7X speed up achieved by scaling from single node system to 8-socket cluster.

8-socket cluster node configuration: CPU: Intel® Xeon® 6148 Processor @ 2.4GHz ; Cores: 40 ; Sockets: 2 ; Hyper-threading: Enabled; Memory/node: 192GB, 2666MHz ; NIC: Intel® Omni-Path Host Fabric Interface (Intel® OP HFI); TensorFlow: v1.7.0 ; Horovod: 0.12.1 ; OpenMPI: 3.0.0 ; Cluster: ToR Switch: Intel® Omni-Path Switch

Single node configuration: CPU: Intel® Xeon® Phi Processor 7290F; 192GB DDR4 RAM; 1x 1.6TB Intel® SSD DC S3610 Series SC2BX016T4; 1x 480GB Intel® SSD DC S3520 Series SC2BB480G7; Intel® MKL 2017/DAAL/Intel Caffe

Intel technologies’ features and benefits depend on system configuration and may require enabled hardware, software or service activation. Performance varies depending on system configuration. No computer system can be absolutely secure. Check with your system manufacturer or retailer or learn more at intel.com.

Intel does not control or audit third-party benchmark data or the web sites referenced in this document. You should visit the referenced web site and confirm whether referenced data are accurate.

Intel, the Intel logo, Intel Nervana, Movidius and Xeon are trademarks of Intel Corporation or its subsidiaries in the U.S. and/or other countries.

*Other names and brands may be claimed as the property of others.

© Intel Corporation.

インテルについて

インテル(NASDAQ: INTC)は、半導体業界をリードする企業として、世界中の技術革新の基盤となるコンピューティングや通信の技術により、データを中心とした未来を創造します。技術的な優位性を基盤に、世界中のさまざまな課題の解決だけでなく、クラウドからネットワーク、エッジ、そしてそれらをつなぐあらゆるモノに至るまで、スマートかつつながっている世界を支える数十億ものデバイスやインフラを安全に接続するための支援に取り組んでいます。インテルの詳細については ニュースルーム またはインテルの Webサイト をご覧ください。

Intel、インテル、Intel ロゴは、米国およびその他の国におけるインテル コーポレーションの商標です。
* その他の社名、製品名などは、一般に各社の商標または登録商標です。