Intel Official News and Information

インテル、クラウドからエッジまでをカバーする新たなAIハードウェアにより、AIの開発、展開、性能向上を加速

最新情報:インテルは本日、産業界におけるインフルエンサーが集まるイベントにおいて、クラウドからエッジにわたるAIシステムの開発、展開を加速する新製品の情報とともに、人工知能(AI)における新たな展開について紹介しました。この中でインテルは、学習用(NNP-T1000)および推論用(NNP-I1000)のインテル® Nervana™ ニューラル・ネットワーク・プロセッサー(NNP)のデモを行いました。これらの製品は、クラウドおよびデータセンターの顧客が、優れたスケーリング機能と効率性により、複雑なディープ・ラーニングを実行することを可能とするインテル初の専用ASIC製品です。また、インテルは、エッジ・メディア、コンピュータ・ビジョンおよび推論アプリ向けのインテル® Movidius™ Myriad™ Vision Processing Unit(VPU)も発表しました。

インテル コーポレーション 副社長 兼 AI製品事業本部長のナヴィーン・ラオ(Naveen Rao)は「この次世代AI製品により、インテルはコンピューターのハードウェアとメモリーに関するブレイクスルーを達成しようとしています。AIにおける驚異的な進化を継続していくためには、インテル® Nervana™ NNPやインテル® Movidius™ Myriad™ VPUのような専用ハードウェアが必要とされます。より先進的なシステム・レベルでのAIを用いることで、データを情報に変換する段階から、情報を知識として活用する段階へと進むことが可能です」と述べています。

 

重要な理由:新製品は、インテルが有するAIソリューションのポートフォリオをさらに強化させるものであり、この結果、インテルは2019年に35億ドル以上の収益を上げることが予想されます。業界で最大級の広がりと厚みを持つインテルのポートフォリオは、大規模クラウドから小型のエッジ・デバイスに至るあらゆる規模において、顧客のAIモデルの開発、展開を可能にします。

 

発表内容:新しいインテル® Nervana™ NNPは、現在生産中であり顧客への納品も進んでいます。インテル® Nervana™ NNPはシステム・レベルでのAIアプローチの一部で、オープンなコンポーネントとディープ・ラーニング・フレームワークを駆使して開発された完全なソフトウェア・スタックを提供します。

インテル® Nervana™ NNP-Tは、コンピューティング、通信、メモリーを最適なバランスで提供し、小さなクラスターから最大規模のポッド型スーパコンピューターに至るまで、ほぼリニアで効率的なスケーリングを実現します。インテル® Nervana™ NNP-Iは、電力効率、費用対効果に優れており、柔軟なフォーム・ファクターを用いることで、集中的なマルチモーダル推論を実際のスケールで行うことに最適です。両製品ともに、BaiduやFacebookのようなAI活用の最先端にいる顧客のニーズに応えるために開発されました。

Facebook AI System Co-Design のディレクターであるミシャ・スメルヤンスキー(Misha Smelyanskiy)氏は「インテル® Nervana™ NNP-Iを使用して、より高速で効率的な推論コンピューティングを展開し、最先端のディープ・ラーニング・コンパイラであるGlowのサポートを拡張できることを嬉しく思います」と述べています。

さらに、2020年前半に提供開始予定である次世代のインテル® Movidius™ Myriad™ VPUは、前世代に比べて10倍以上という最高レベルの推論性能を備えたインテル独自の先進的な高効率アーキテクチャー技術を採用し、競合企業のプロセッサーを最大で6倍上回る電力消費効率を実現します。インテルはまた、新しいインテル® DevCloud for the Edgeを発表しました。これは、インテル® Distribution of OpenVINO™ ツールキットとともに、開発者がハードウェアを購入する前に、AIソリューションを幅広いインテル・プロセッサー上で試用、試作、検証することを可能にするもので、開発者とっての最大の悩みを解決します。

» 大きいサイズの画像

重要な理由:ディープ・ラーニングによる推論や文脈理解を前進させるためには、非常に複雑なデータ、モデル、技術が必要であり、アーキテクチャーに関して従来と異なる考え方が求められています。

世界中で利用されているAIの多くは、インテル® Xeon® スケーラブル・プロセッサー上で稼働しており、インテルは、データセンターからエッジにわたるAIの推論性能を向上させるインテル® Deep Learning Boost with Vector Neural Network Instruction(VNNI)などの機能を備えたこのプラットフォームの継続的な機能向上を図っています。インテル® Xeon® スケーラブル・プロセッサーが長年にわたって強固なAI基盤として機能し続ける一方、インテルの顧客からのディープ・ラーニング学習において最も必要とされることは性能が3.5ヶ月ごとに倍増することであり、このようなブレイクスルーの実現にはインテルのようなAIソリューションのポートフォリオが必須です。インテルは、コンピューティング、メモリー、ストレージ、インターコネクト、パッケージング、ソフトウェアの全体像を把握する力を有しており、効率性やプログラミング可能性の最大化を図るだけでなく、数千にもおよぶノードにわたってディープ・ラーニングの展開を拡大し、知識革命を切り拓くための優れた能力を備えています。

 

参考情報:AI Summitプレスキット(英語) |Artificial Intelligence at Intel(英語) | At Hot Chips, Intel Pushes ‘AI Everywhere’(英語)

 

 

インテルについて

インテルは業界のリーダーとして、世界中の進歩を促すとともに生活を豊かにする、世界を変えるテクノロジーを創出しています。ムーアの法則に着想を得て、顧客企業が抱える大きな課題を解決する半導体製品を設計・製造し、その進化に向けて日々取り組んでいます。クラウド、ネットワーク、エッジ、あらゆるコンピューティング機器のインテリジェント化によりデータの価値を最大化し、ビジネスと社会をより良く変革します。インテルのイノベーションについては、https://newsroom.intel.co.jp またはhttps://intel.co.jpをご覧ください。
* Intel、インテル、Intel ロゴ、インテルのマークは、米国およびその他の国におけるインテル コーポレーションの商標です。
* その他の社名、製品名などは、一般に各社の商標または登録商標です。