DNNの学習を高速実行する専用プロセッサーの開発競争が激しい。米Intel社を筆頭に、富士通や国内外のベンチャー企業が、独自のアーキテクチャーで競う。現在の市場を支配する米NVIDIA社を追い越し、拡大する市場の先導役になることを目指す。

 世界最大の半導体メーカーが、知る人ぞ知るベンチャー企業の名前に自社の将来を託すことは滅多にない出来事だ。米Intel社は2016年11月、人工知能向けの製品群を「Intel Nervana」ポートフォリオと命名。同時に、名前の由来になった買収先の米Nervana Systems社の深層学習向けLSIを、「Lake Crest」の名称で主力製品の1つに位置付けた。狙いはDNNの学習用途で独走する米NVIDIA社の追撃である注1)。そのためには既存製品の強化だけでは足りず、今回の異例の発表につながった(図1)。

注1)NVIDIA社の2016年8~10月期の売上高は前年同期比54%増の20億米ドル、純利益は同120%増の5億4200万米ドルに達した。データセンター向けの売上高が同2.9倍の2億4000万米ドルと大きく成長した。
図1 NVIDIA社をIntel社が猛追
図1 NVIDIA社をIntel社が猛追
NVIDIA社とIntel社のサーバー向け深層学習用チップのロードマップを示した。いずれもクラウド側での利用を想定する。NVIDIA社のTeslaの性能は「ブーストクロック」時。Intel社のXeon Phiはベース周波数の場合。Xeon Phiで「ターボ・ブースト」を用いると、例えば68コアの「7250」(全タイルで1.5 GHz動作)の性能は3264GFLOPSと計算できる。
[画像のクリックで拡大表示]

 DNNの学習用チップの市場を狙い、専用チップの開発プロジェクトが次から次に浮上している。日本では富士通やベンチャー企業のDeep Insights、海外では韓国Samsung Electronics社が出資する英Graphcore社や、米NASA(航空宇宙局)の長官を務めたDaniel Goldin氏が創業し1億米ドルの資金を集めた米KnuEdge社注2)など、個性的な顔ぶれがそろう。それぞれが採用するアーキテクチャーもユニークだ(表1)。各社の製品が出そろう2017年以降に、拡大を始めた「英知のエンジン」の市場でつばぜり合いを繰り広げそうだ。「深層学習をハードウエアに効率的に実装する方法はいくつもある。まだまだ挽回できる」(神戸大学 理学研究科教授の牧野淳一郎氏)注3)

注2)半導体の開発を手がけるのは、同社の子会社であるKNUPATH社。
注3)同氏がリーダーを務める理化学研究所計算科学研究機構 粒子系シミュレータ研究チームは、新エネルギー・産業技術総合開発機構(NEDO)の「次世代人工知能・ロボット中核技術開発」の一環で、Preferred Networks(PFN)と共同で深層学習用プロセッサーを開発している(代表者は同チームの村主崇行特別研究員)。Google社がDeep-Mind社と協力してTPUを開発しているように、ソフトウエア側との協力関係が重要と考えて、PFNと組んだという。
表1 学習向け専用LSIの例
表1 学習向け専用LSIの例
[画像のクリックで拡大表示]