人工知能(AI)の処理を高速化する専用チップの開発が世界中で始まった。エッジ向けは人の五感を超えた知覚の実現、クラウド向けはビッグデータに潜んだ知られざる英知を掘り起こすエンジンになるのが当面の目標だ。ただしそのアーキテクチャーは、研究開発の進捗次第で大きく変わり得る。

 米Intel社が言いたかったのは、今がコンピューターの歴史を画する転換点だということだ。2016年11月17日、同社は米国サンフランシスコで「Intel AI Day」を開催。人工知能(AI)の実行に向く新型チップを紹介し、自らがAIの市場を牽引すると高らかに宣言した。かつてパソコンやサーバー機、クラウドといった節目ごとに覇権を握った自負をにじませて。

 同じゴールを目指すのはIntel社だけではない。AIの処理を加速する新型プロセッサーに、名だたる企業が触手を伸ばしている。2016年10月末、韓国Samsung Electronics社が深層学習プロセッサーを手掛ける英Graphcore社に出資したことが判明。11月末には富士通が新開発の深層学習チップを2018年度に発売すると発表した。米Google社は、自ら設計した「TPU(Tensor Processing Unit)」が、囲碁のトップ棋士に圧勝したソフト「AlphaGo」に使われていたことを同年5月に公表済みだ注1)

注1)TPUはDNNの推論実行用のASICとみられる。Google社は「深層学習に用いる他の技術と比べて、消費電力当たりの性能は10倍」としている。同社のニューラルネットを用いた機械翻訳(Neural Machine Translation)の論文によると、英語をフランス語に翻訳するタスクではTPUは米NVIDIA社の「Tesla K80」を使った場合よりも約8倍早かった。

 人工知能の推論や学習を高速で実行できる「AIチップ」の進化が始まった。大きく2つの方向で、市場の開拓が進みそうだ。IoT(Internet of Things)のエッジ側とクラウド側である(図1)。それぞれがAIチップに求める特性は大きく異なり、別々の進化の経路をたどるだろう。いずれの用途でも、現在の定番であるGPUを凌ぐ性能を目指したさまざまな提案がある。何が本命かはまだ誰にも分からない。未来の電子機器の頭脳をめぐる、熾烈なレースの号砲が鳴った。

図1 AIチップの開発が本格化
図1 AIチップの開発が本格化
人工知能(AI)の処理を高速化する専用チップの開発競争がエッジ側とクラウド側の双方で始まった。前者は自動運転車、後者は研究開発やビッグデータの分析をけん引役に市場が拡大しそうだ。その先には、さらに巨大な市場が横たわるとの期待が膨らんでいる。
[画像のクリックで拡大表示]