ISSCC2018

北大が磁界結合利用の深層学習チップ、Googleはエッジを視野に

  • 今井 拓司
  • 2017/11/14 12:35
この記事は日経エレクトロニクス購読者/日経ものづくり購読者/日経Automotive購読者/日経テクノロジーオンライン有料会員限定ですが、2018年02月15日まではどなたでもご覧になれます。
[画像のクリックで拡大表示]
北海道大学の本村教授が説明
同氏は「デジタルアーキテクチャ」サブコミッティーの日本委員代表を務める。

 2017年11月13日、東京都内でISSCC 2018の概要説明会が開かれた(関連記事)。今回から、業界で話題のトピックごとに、注目論文を紹介する形式になった。発表されるチップの、社会に対する意義を分かりやすくするための変更という。去年までは「アナログ」「データコンバーター」など、個別の分野を担当するサブコミッティーごとに紹介していた。

 今回の説明のトップを切ったのが「機械学習向けチップ」である。最近の人工知能(AI)ブームを追い風に、その中核技術である機械学習への関心が高まっていることを受けた格好だ。「デジタルアーキテクチャ」サブコミッティーの日本委員代表を務める北海道大学 大学院情報科学研究科 教授の本村真人氏が説明した。

 複数のセッションにまたがり発表される合計12件の論文の中でも注目を集めそうな1つが、同氏の研究室とウルトラメモリ、慶應義塾大学が共同で発表する「QUEST: A 7.49-TOPS Multi-Purpose Log-Quantized DNN Inference Engine Staked on 96MB 3D SRAM using Inductive-Coupling Technology in 40nm CMOS」である。実際、この論文は、初めてISSCCに採択された学生を対象に選ばれる「Silkroad Award」を受賞した。

[画像のクリックで拡大表示]
Silkroad Awardを受賞
北海道大学らのチップなど2件が受賞した。

 発表されるチップは、深層学習(ディープラーニング)技術で学習させたDNN(ディプニューラルネットワーク)の推論処理を高速かつ低電力で実行するもの。プログラミングにより各種のDNNの構造に対応でき、演算性能は7.49TOPS(Tera Operations Per Second)という。特徴の1つは、磁界結合を用いたTCI(Thru Chip Interface)技術(関連記事)を使って、容量が合計96Mバイトの積層SRAMと、高速(28.8Gバイト/秒)かつ低遅延(3サイクル)で通信できること。DNNの推論の実行では、DNNの重みや入出力のデータを格納したメモリーのアクセスがボトルネックになりがちで、この問題に手を打った形である。

 もう1つの特徴が、対数量子化と呼ぶ方式を使って、DNNの重みや入力などを量子化すること。対数量子化とは、数値を2のべき場で表す表現で、北海道大学らのチップではその指数を1~4ビットで表すことができる。この方式を用いたDNNチップは業界初という。今回のチップに先立ち北海道大学は「BRein Memory」と呼ぶチップを2017年6月開催の2017 Symposium on VLSI Circuitsで発表済み(論文)。そのチップでは、重みなどを2値もしくは3値で表すDNNが対象だったのに対し、DNNの表現能力を大きく高めた形である。

[画像のクリックで拡大表示]
磁界結合と対数量子化を利用

 ISSCC 2018で発表される機械学習向けチップ全体の傾向として本村教授が挙げたのは、入力や重みなどを2値で表すバイナリニューラルネットに対応したチップの論文が全6件と増えたことである。中でも、メモリセルの内部や近傍で、アナログ-デジタル混在回路(Mixed-Signal)を使って積和処理を実行するものが4件もあるという。このうちバイナリニューラルネットとメモリ近傍の演算という点には、先述の「BRein Memory」がいち早く対応しており、北海道大学が他者に先行した格好といえる。このほか本村教授は、アナログーデジタル混在回路を使って強化学習を実現するチップなども登場することも紹介した。

[画像のクリックで拡大表示]
[画像のクリックで拡大表示]
バイナリ、インメモリー、アナデジ混在が4件
[画像のクリックで拡大表示]
強化学習実行チップも

 米Google社の招待論文も注目を集めそうだ。詳細は不明だが、「A Shift Towards Edge Machine-Learning Processing」とのタイトルから、エッジ側で使う推論チップなどに対する同社の考えが垣間見えるはずだ。ISSCC 2018では、同社で深層学習プロセッサー「TPU(Tensor Processing Unit)」の開発に携わったDavid Patterson氏(関連記事)による基調講演「50 Years of Computer Architecture: From Mainframe CPUs to Neural-Network TPUs」も予定されている。ISSCC 2018は2018年2月11~15日、米国サンフランシスコで開催される。

[画像のクリックで拡大表示]
Google社が招待論文