米Intel社Data Center GroupでExecutive Vice President and General Managerを務めるDiane Bryant氏は、人工知能向けプロセッサーに関する同社の戦略を米国時間の8月17日に明らかにした。同社が米国サンフランシスコで開催した開発者会議「IDF16 San Francisco」の二日目の基調講演での一幕である(基調講演のビデオ)。

 同氏は、現在の人工知能技術を支える機械学習、とりわけディープラーニング(深層学習)が今後ますます重要になるとの認識を示した。現在、同社はこの市場で主導的な役割を果たしているとし、機械学習用に使われているサーバーの97%がIntel社製プロセッサーを用いていると主張した(同社の資料)。今後出荷が本格化する同社のメニーコアプロセッサー「Xeon Phi」の第二世代品(開発コード名「Kights Landing」)で、深層学習用のアクセラレータとして幅広く使われているGPUに対抗していく意向も滲ませた(関連記事1)。

図1 深層学習に最適化したXeon Phi
[画像のクリックで拡大表示]
図1 深層学習に最適化したXeon Phi
2017年に出荷する予定。(画像:Intel社)

 同氏は2017年の出荷を目指す次世代Xeon Phi(開発コード名「Kights Mill」)を開発中であることも表明(図1)。深層学習技術を使ったニューラルネットワークの学習を高速化するために、命令セットに様々な浮動小数点数演算命令を追加するとした。深層学習では浮動小数点演算の精度が低くて良い場合があり、例えば米NVIDIA社の最新GPUでは64ビットの演算に対して32ビットの演算性能が2倍、16ビットの演算性能が4倍になる(関連記事2)。

 これらのGPUに対する開発中のチップの利点としては、第二世代品と同様にホストCPUとして使えるため、アクセラレーターに処理を依頼するオフロード形式のプログラミングが必要ないことを強調した。なお、Intel社はこれまでXeon Phiの将来版として開発コード名「Knights Hill」と呼ぶチップを明らかにしており(関連記事3)、2018~2019年に米Argonne National Laboratoryに設置・運用開始予定のスパコン「Aurora」への採用が決まっている(関連記事4)。