「我々がデザインしたシステムは、要求を受けてから極めて短い遅延時間で応答を返せる、リアルタイムAI向けだ。リアルタイムAIは今後ますます重要になる」(米Microsoft社 Distinguished EngineerのDoug Burger氏のブログ)。
2017年8月下旬、高性能プロセッサー関連の国際会議「Hot Chips 2017」で、Microsoft社はディープニューラルネットワーク(DNN)を用いた推論処理を高速で実行できるクラウド環境「Project Brainwave」(開発コード名)を発表した。同社が設計したアクセラレーター回路を米Intel社の最上位FPGA「Stratix 10」に実装して利用する。狙いは、検索や動画認識、ユーザーとの対話などの各種サービスで、無数の要求を瞬時に処理して結果を戻せる人工知能(AI)の実現である。将来、クラウドサービス「Microsoft Azure」の一環として提供する計画だ。
DNNの推論処理の加速を狙ったAIチップの提案が、雨後のたけのこのように続出している(図1)。いずれもリアルタイムと呼べるほど、素早く処理結果を返すことが目標だ。原動力は、DNNの活用が電子機器やサービスの付加価値を大幅に高めるとの期待である。AIチップに向くアーキテクチャーは定番がまだないため、各社各様の独自方式が目白押しだ。チップやIPを外販する企業からは業界標準の座を目指す意図がうかがえる。応用製品の市場拡大と並行して、AIチップの標準をめぐる争いも激化していきそうだ。