図1 基調講演に登壇したNVIDIA社CEOのJen-Hsun Huang氏
図1 基調講演に登壇したNVIDIA社CEOのJen-Hsun Huang氏
[画像のクリックで拡大表示]

 GPUメーカーの米NVIDIA社が主催する開発者会議「GPU Technology Conference(GTC) 2016」が、同社CEO & Co-FounderのJen-Hsun Huangの基調講演で始まった(図1)。2時間を超える講演の中で同氏は、ディープラーニング(深層学習)は人間の専門家が設計しなくても大量のデータから人工知能自身が様々な行動を学ぶ「Brand-new Computing Model(最新のコンピューティングモデル)」で、あらゆる用途に広がっていくと強調(図2)。関連する市場は10年間の合計で5000億米ドル(1米ドル=110円換算で約55兆円)にも膨らむとした(図3)。この市場に向けて、多くの開発者が独自のニューラルネットワークを構築できるように、学習や実行の高速化や省電力化を追求した製品を提供すると語った。

図2 深層学習は各業界のリーダーまで
図2 深層学習は各業界のリーダーまで
[画像のクリックで拡大表示]
図3 10年間で5000億ドルの市場を見込む
図3 10年間で5000億ドルの市場を見込む
[画像のクリックで拡大表示]

 同氏は、深層学習の高速化を狙ったGPUの新機種「Tesla P100」を発表(図4)。NVIDIA社が開発した新アーキテクチャー「Pascal」を採用し、浮動小数点演算性能は5.3TFLOPS(64ビット)、10.6TFLOPS(32ビット)、21.2TFLOPS(16ビット)に達する。製造プロセスは16nm FinFET。GPU間のインターコネクト技術に同社独自の「NV-Link」を採用し、台湾TSMC社の2.5次元実装技術「CoWoS(Chip-on-Wafer-on-Substrate)」を使ってHBM2仕様の積層DRAMと接続する。ニューラルネットワークの重みなどの格納に利用できる14Mバイトのレジスタファイルを備え、外部のメモリーとのやりとりを減らせるようにした。Huang氏は、「本日(米国時間2016年4月5日)からTesla P100の量産を始めた」と表明した。

図4 最新GPUを発表
図4 最新GPUを発表
[画像のクリックで拡大表示]

 深層学習を高速化できる高性能コンピューター(HPC)「DGX-1」も発表した(図5)。NV-LinkでつないだTesla P100を8個、Xeonを2個、7TバイトのSSDを搭載する。画像認識に用いるニューラルネットワーク「Alexnet」の学習を2時間で終えられるという(図6)。2015年のGTCで発表した、前世代のMaxwellアーキテクチャーのGPUを4個搭載する「DIGITS DevBox」では同じ学習に25時間を要するため、1年で性能が12倍向上したと訴えた(図7)。また、2個のXeonを使ったサーバーの性能に換算すると250台分にあたるとした。価格は12万9000米ドル(約1419万円)。米University of California, Berkeley校や米Stanford Universityなど、人工知能研究で先行する大学などから納入を始めるという。

図5 「五つの奇跡」で実現
図5 「五つの奇跡」で実現
[画像のクリックで拡大表示]
図6 「世界初の深層学習用スパコン」をうたう
図6 「世界初の深層学習用スパコン」をうたう
[画像のクリックで拡大表示]
図7 2時間で学習終了
図7 2時間で学習終了
[画像のクリックで拡大表示]