米IBM社のスイス・チューリッヒ研究所のJan van Lunteren氏は、「DATE(Design, Automation, and Test in Europe) 2015」(フランス・グルノーブル、2015年3月9日~13日)で講演し、ニアー・メモリー・コンピューティングに関して語った。ニアー・メモリー・コンピューティングは、データ・セントリック・コンピューティングの一つと言えるもので、メモリー/ストレージのなるべく近くにコンピューティングリソースを置いて、データ転送によるロスの低減を目指す。

講演するJan van Lunteren氏 会場がやや狭いせいもあるが、満員で立ち見が出た。日経テクノロジーオンラインが撮影。スクリーンはIBMのスライド。
講演するJan van Lunteren氏
会場がやや狭いせいもあるが、満員で立ち見が出た。日経テクノロジーオンラインが撮影。スクリーンはIBMのスライド。
[画像のクリックで拡大表示]
演算よりもデータ転送の方が消費電力が大きい IBMのスライド。
演算よりもデータ転送の方が消費電力が大きい
IBMのスライド。
[画像のクリックで拡大表示]

 データ・セントリック・コンピューティングやニアー・メモリー・コンピューティング、さらにイン・メモリー・コンピューティングなどは、かなり以前から提唱されているコンピューティング・アーキテクチャーである。必要性は以前から指摘されているが、これまでは学会レベルの話題だった。それが「ここに来て実世界への出番がやってきた」(Lunteren氏)という。

 同氏はその根拠を3つ挙げた。(1)コンピューティング(演算)に比べて、データ転送の消費電力がかなり大きくなっていること。(2)IoTによってビッグデータ処理が現実のものになりそうなこと。(3)3次元実装などの実現技術が整ってきたこと、である。

 このうち(1)のデータ転送の消費電力に関しては、学会などで報告されているデータをいくつか紹介した。例えば90nmのころは、演算とデータ転送の消費電力はほぼ同じだったが、32nmではデータ転送の消費電力が演算のそれの2倍以上に、14nmでは4倍以上になるというグラフを紹介した。さらに同氏は、チップにさまざまなプログラマビリティー(自由度)を持たせることでも消費電力が増大することを指摘した。