今週行われた Microsoft 年次デベロッパーズ・カンファレンス「Build」において、Microsoft Azure CTO、マーク・ルシノビッチ氏は、Microsoftによるインテル® FPGA (Field Programmable Gate Array) を活用するハイパースケール開発の主な最新機能について発表いたしました。今回明らかにされた最新機能は、業界最速クラスのパブリック・クラウド・ネットワークを実現し、さらには、人間の脳と同様の思考パターンを再現するディープ・ニューラル・ネットワーク (DNN) の進化を加速する新しいテクノロジーへとつながっています。
世界最大のクラウド投資を得ているFPGAによる超低レイテンシー・ネットワーキングは、性能、柔軟性、そして拡張性を提供しています。この低レイテンシー・ネットワーキングがもたらすスピードの向上は、企業、政府、医療機関、大学などのビッグデータ・ワークロードの処理効率の大幅な向上に貢献しています。AzureのFPGA対応アクセラレーテッド・ネットワーキングは、仮想マシン間のレイテンシーを最大で10分の1にまで低減することで、インテル® Xeon® プロセッサーの負荷を軽減し、他のタスクを処理できるようにします。
ルシノビッチ氏はまた、Microsoftがハードウェア・マイクロサービスと呼んでいる新しいクラウド・アクセラレーション・フレームワークの概要についても発表いたしました。このアクセラレーションを提供するインフラストラクチャーの基盤となるのが、インテル® FPGAです。この新しいテクノロジーによって、ディープ・ニューラル・ネットワークなどのアクセラレーテッド・コンピューティング・サービスを、専用のソフトウェアなしで、クラウド上で実行することが可能になり、スピードおよび効率性が大幅に向上します。
「インテル® Xeon® プロセッサー搭載サーバーにFPGAを追加したBing検索機能のスピードアップ対策から、マークが昨日のスピーチで取り上げたディープ・ニューラル・ネットワーク (DNN) の土台となる新たなハードウェア・マイクロサービス・モデルまで、Microsoftはインテル® FPGAを使用した最新ハードウェア・アクセラレーション・インフラストラクチャーへの投資を継続的に行ってきました」と、MicrosoftのDistinguished Engineerであるダグ・バーガー氏は語りました。
「大規模かつ多様なワークロードを処理するアプリケーションや、サーバーのアクセラレーションには、より多くの処理能力が必要ですが、その一方で、低い消費電力と高い性能とのバランスも求められます。つまり、消費電力当たりの性能が重要ということですが、この点に関してはFPGAが有効です」と、インテルのプログラマブル・ソリューションズ事業本部副社長 兼 事業本部長、ダン・マクナマラは述べています。「ビジネス上の課題の解決から、医療目的のゲノム解析まで、Microsoftがインテル® FPGAを利用して実現するこの種のクラウド・コンピューティングは大きなメリットをもたらします」。
Microsoft Azure CTO、マーク・ルシノビッチ氏のプレゼンテーションはこちらをご覧ください。
インテルのコンピューティングおよびストレージ向けFPGAについての詳細はこちらをご確認ください。

