2016年は「AIチップ元年」だったと言えそうだ。深層学習(ディープラーニング)の高速化という明確な目標が定まり、この市場に向けた製品が相次ぎ登場したからだ。米IBM社の脳型チップ(neurmorphic chip)「TrueNorth」など、これまでも人工知能(AI)向けを想定した専用ICはいくつもあったが、その多くは研究段階で、具体的な用途は必ずしも明らかではなかった。

 数々の企業が先を競って名乗りをあげた様は、今後の熾烈な競争を予感させた。2017年以降は、さまざまな背景の企業が入り乱れて競う「異種格闘技戦」が繰り広げられそうだ。

独走するNVIDIA

 口火を切ったのは米NVIDIA社である。2016年4月に開催した同社の開発者会議「GPU Technology Conference(GTC) 2016」で、同社CEOのJen-Hsun Huang氏は、ディープラーニングはあらゆる用途に広がる「新たなコンピューティングモデル」だと表明。関連市場は10年間の合計で約55兆円に達するとぶち上げた(関連記事)。

Jen-Hsun Huang氏は、深層学習の応用はあらゆる産業に広がっていくと主張した。
[画像のクリックで拡大表示]
Jen-Hsun Huang氏は、深層学習の応用はあらゆる産業に広がっていくと主張した。

 巨大市場の開拓に向けて同社が披露した新製品が、現在最速の深層学習用アクセラレーターとみられる「Tesla P100」である。クラウド上のサーバー機や、スパコンなどのHPC(High Performance Computing)システムに組み込むハイエンドの製品だ。

 これまでもNVIDIA社は深層学習向けチップで業界をリードしてきた。今回の製品が異なるのは、深層学習の処理を大幅に加速する機能を盛り込んだことである。16ビットの浮動小数点演算を、32ビット浮動小数点演算の場合の2倍に相当する21.2TFLOPS(ブーストクロック時)で実行可能にした。科学技術計算などと異なり、深層学習では高精度の演算が不要とされることに対応した格好だ。