DNNの学習を高速実行する専用プロセッサーの開発競争が激しい。米Intel社を筆頭に、富士通や国内外のベンチャー企業が、独自のアーキテクチャーで競う。現在の市場を支配する米NVIDIA社を追い越し、拡大する市場の先導役になることを目指す。
世界最大の半導体メーカーが、知る人ぞ知るベンチャー企業の名前に自社の将来を託すことは滅多にない出来事だ。米Intel社は2016年11月、人工知能向けの製品群を「Intel Nervana」ポートフォリオと命名。同時に、名前の由来になった買収先の米Nervana Systems社の深層学習向けLSIを、「Lake Crest」の名称で主力製品の1つに位置付けた。狙いはDNNの学習用途で独走する米NVIDIA社の追撃である注1)。そのためには既存製品の強化だけでは足りず、今回の異例の発表につながった(図1)。
DNNの学習用チップの市場を狙い、専用チップの開発プロジェクトが次から次に浮上している。日本では富士通やベンチャー企業のDeep Insights、海外では韓国Samsung Electronics社が出資する英Graphcore社や、米NASA(航空宇宙局)の長官を務めたDaniel Goldin氏が創業し1億米ドルの資金を集めた米KnuEdge社注2)など、個性的な顔ぶれがそろう。それぞれが採用するアーキテクチャーもユニークだ(表1)。各社の製品が出そろう2017年以降に、拡大を始めた「英知のエンジン」の市場でつばぜり合いを繰り広げそうだ。「深層学習をハードウエアに効率的に実装する方法はいくつもある。まだまだ挽回できる」(神戸大学 理学研究科教授の牧野淳一郎氏)注3)。