人工知能(AI)の処理を高速化する専用チップの開発が世界中で始まった。エッジ向けは人の五感を超えた知覚の実現、クラウド向けはビッグデータに潜んだ知られざる英知を掘り起こすエンジンになるのが当面の目標だ。ただしそのアーキテクチャーは、研究開発の進捗次第で大きく変わり得る。
米Intel社が言いたかったのは、今がコンピューターの歴史を画する転換点だということだ。2016年11月17日、同社は米国サンフランシスコで「Intel AI Day」を開催。人工知能(AI)の実行に向く新型チップを紹介し、自らがAIの市場を牽引すると高らかに宣言した。かつてパソコンやサーバー機、クラウドといった節目ごとに覇権を握った自負をにじませて。
同じゴールを目指すのはIntel社だけではない。AIの処理を加速する新型プロセッサーに、名だたる企業が触手を伸ばしている。2016年10月末、韓国Samsung Electronics社が深層学習プロセッサーを手掛ける英Graphcore社に出資したことが判明。11月末には富士通が新開発の深層学習チップを2018年度に発売すると発表した。米Google社は、自ら設計した「TPU(Tensor Processing Unit)」が、囲碁のトップ棋士に圧勝したソフト「AlphaGo」に使われていたことを同年5月に公表済みだ注1)。
人工知能の推論や学習を高速で実行できる「AIチップ」の進化が始まった。大きく2つの方向で、市場の開拓が進みそうだ。IoT(Internet of Things)のエッジ側とクラウド側である(図1)。それぞれがAIチップに求める特性は大きく異なり、別々の進化の経路をたどるだろう。いずれの用途でも、現在の定番であるGPUを凌ぐ性能を目指したさまざまな提案がある。何が本命かはまだ誰にも分からない。未来の電子機器の頭脳をめぐる、熾烈なレースの号砲が鳴った。