デンソーなどが開発した「DFP」のIPのライセンス供与などを手掛ける新会社エヌエスアイテクス(NSITEXE)の社長を務める新見幸秀氏
デンソーなどが開発した「DFP」のIPのライセンス供与などを手掛ける新会社エヌエスアイテクス(NSITEXE)の社長を務める新見幸秀氏
[画像のクリックで拡大表示]

 「我々がデザインしたシステムは、要求を受けてから極めて短い遅延時間で応答を返せる、リアルタイムAI向けだ。リアルタイムAIは今後ますます重要になる」(米Microsoft社 Distinguished EngineerのDoug Burger氏のブログ)。

 2017年8月下旬、高性能プロセッサー関連の国際会議「Hot Chips 2017」で、Microsoft社はディープニューラルネットワーク(DNN)を用いた推論処理を高速で実行できるクラウド環境「Project Brainwave」(開発コード名)を発表した。同社が設計したアクセラレーター回路を米Intel社の最上位FPGA「Stratix 10」に実装して利用する。狙いは、検索や動画認識、ユーザーとの対話などの各種サービスで、無数の要求を瞬時に処理して結果を戻せる人工知能(AI)の実現である。将来、クラウドサービス「Microsoft Azure」の一環として提供する計画だ。

 DNNの推論処理の加速を狙ったAIチップの提案が、雨後のたけのこのように続出している(図1)。いずれもリアルタイムと呼べるほど、素早く処理結果を返すことが目標だ。原動力は、DNNの活用が電子機器やサービスの付加価値を大幅に高めるとの期待である。AIチップに向くアーキテクチャーは定番がまだないため、各社各様の独自方式が目白押しだ。チップやIPを外販する企業からは業界標準の座を目指す意図がうかがえる。応用製品の市場拡大と並行して、AIチップの標準をめぐる争いも激化していきそうだ。

図1 GPUの牙城に挑む
図1 GPUの牙城に挑む
DNN(ディープニューラルネットワーク)などを使った推論処理を高速に実行できる人工知能(AI)向け半導体の提案が相次いでいる。いずれも、深層学習技術の研究開発で多用されてきた米NVIDIA社のGPUをしのぐ電力当たりの性能を狙う。デンソーは米ThinCI社と共同でDFPと呼ぶプロセッサーを開発。演算器の利用効率をGPUよりも高めることができ、運転時の判断といった処理への応用を狙うという。米Microsoft社はFPGAを使ってデータセンターでの推論処理を高速化できることを実証。経済産業省は、2018年度予算にFPGAやDRPなどのAIへの応用を推進する事業を組み込んだ。このほか、DNN処理の専用回路や自動運転車などを想定したASICを提案する動きもある。
[画像のクリックで拡大表示]