ニューラルネットを活用した画像認識を、自動車で利用するための半導体製品が出そろってきた。車載向けを前面に押し出した製品と、さまざまな画像処理に使える汎用的な製品の大きく2つに分けられる。この市場で勝ち残った製品が、エッジ側のAIチップのひな型になりそうだ。

 ニューラルネットを使った画像認識は計算負荷が非常に大きい。例えばNTTコムウェアが監視カメラ用に開発したDNN(ディープニューラルネットワーク)は、GPUボードが入った普通のパソコンを使って認識させた場合に、1枚の画像を処理するのに0.25秒かかるという注1)

注1)同社のDNNはオープンソースのDNNを改良して開発したという。人物の検出率は、既存の画像認識手法(特徴量にHOG(Histograms of Oriented Gradients)を使いSVM(Support Vector Machine)で分類)の55.7 % に対して99.5%と高い。学習にはGPUボード付きのパソコンを使い、元のDNNに付属していたデータを使って1週間程度、追加で用意した数千枚の画像で1日程度を要した。

 自動車向けの画像認識は、これよりも高速かつ低電力で実行しなければならない。時速100kmで走行している自動車は、1秒間に28mも進む。万一の事故を避けるには数十ms単位の認識速度が必要だ。加えて、車内での置き場所にもよるが、どこにあっても冷却ファンなしで済ませるには電力は5Wを切る必要があるという。

 これらの厳しい条件をクリアし、エッジ向けAIチップのひな型を目指す製品が次々に現れている。大きく分けて、車載が前提の製品と、車載を含めた幅広い用途を目指す製品の2つがある(図1)。前者はDNNの設計を含めたソフトウエア開発の負担を軽減できるが、提供されたソフトを使うだけでは他社製品と差異化が難しくなる。後者の製品は自由度が高い分、DNN開発の能力を自社で獲得しなければならない。どの製品が優勢かを見極めるには、2020年以降と見られる「レベル4」級の自動運転車の実用化動向を見守る必要があるだろう。

図1 専用か汎用か
図1 専用か汎用か
組み込み用途でニューラルネットの推論機能を高速に実行する手段を分類して位置付けた。いずれも車載用途に期待するものの、米NVIDIA社やイスラエルMobileye社が自動車向けを前面に押し出しているのに対し、画像処理チップやFPGAなどは幅広い用途に活用できることを売り物にする。
[画像のクリックで拡大表示]