図1 ベルギーKU Leuven(ルーヴァン・カトリック大学)のMarian Verhelst教授
図1 ベルギーKU Leuven(ルーヴァン・カトリック大学)のMarian Verhelst教授
[画像のクリックで拡大表示]

 ベルギーKU Leuven(ルーヴァン・カトリック大学)ESAT-MICAS LaboratoriesのMarian Verhelst教授は、日本シノプシスが2016年8月23日に開いた「シノプシス エンベデッド・ビジョン・ソリューション・セミナー 」で講演し、同氏らが開発中のディープラーニング(深層学習)専用チップの概要を説明した(図1)。スマートフォンなどの組み込み機器で周囲の状況を常に確認するといった用途を目指している。そのためには、消費電力当たりの処理性能として数TOPS(tera operations per second)/Wを実現する必要があるとし、試作したチップで0.3~2.6 TOPS/Wを達成できたと報告した(関連論文)。

 同氏はまず、深層学習技術を用いたディープニューラルネットワークの学習(トレーニング)には「バカバカしいぐらい途方もない膨大な計算量」が、学習済みのネットワークによる推論や分類の実行にも「膨大な量の計算リソース」が必要と指摘。組み込み機器では後者の実行が重要になるが、深層学習によく使われるGPUでは、数十GOPSまでしか実現できないと主張した。

 ディープニューラルネットワークの実行性能を高める上で重要な点として、まずは画像認識などで一般的に利用されるCNN(Convolutional Neural Network)を使うことを挙げた。CNNでは、ある層のニューロンから次の層のニューロンへの結合の重み(フィルタ)がすべてのニューロンで同一であるため、異なる層にあるすべてのニューロンがそれぞれ異なる重みで結合する全結合型と異なり、データの使い回しや計算の並列化に向くと指摘。また、データやフィルタの要素に0が多いというスパース(疎)性があるので、要素が0の場合にはメモリからのデータの取り込みや演算の必要がないことを利用して、処理効率を高められるとした。