富士通は2016年11月29日、同社の人工知能(AI)技術「Zinrai」を用いた基盤サービスを開始すると発表した(発表資料1)。AIを用いたシステムの構築用にAPIを提供する「FUJITSU AI solution Zinraiプラットフォームサービス」や、DNN(ディープニューラルネットワーク)の学習を高速に実行できる「FUJITSU AI Solution Zinraiディープラーニング」などを、クラウド経由やオンプレミス(顧客の拠点に導入)で提供する(図1)。いずれも2017年4月から提供を始める。学習サービスでは、サーバー機の液浸冷却技術や、独自の学習アクセラレーターLSIの導入も計画。世界各地で事業を展開し、AI関連で2020年度までに累計3200億円の売上高を目指す。

図1 30種類のAPIを用意
[画像のクリックで拡大表示]
図1 30種類のAPIを用意
基本API21種類と、目的別API9種類を提供する。

 学習サービスには、当初は米NVIDIA社のGPU「Tesla P100」8個を用いたサーバー機を利用する(図2)。NVIDIA社の深層学習用スパコン「DGX-1」(関連記事1)と同様な構成と見られる。深層学習フレームワークとして、2016年8月発表の「Distributed Caffe」を用意した(発表資料2)。

図2 「世界最速クラス」の学習サービス
[画像のクリックで拡大表示]
図2 「世界最速クラス」の学習サービス
NVIDIA社の「Tesla P100」を利用する。

 同社独自の技術として、サーバー機の液浸冷却も利用する(図3)。オンプレミスのサーバー機にオプションで提供するほか、同社のクラウド側のサーバー機への適用も検討している。通常の学習サービスで使うものと同じサーバー機をそのまま液浸冷却できるという。導入時期は学習サービスの開始時よりも後になる見込み。なお、同社はベンチャー企業のExaScalerと液冷技術を開発してきたが、その技術は液冷を前提に高密度実装したサーバー機を作ることが目的であり、今回導入する技術はそれとは若干異なるという(関連記事2)。

図3 液浸冷却を適用
[画像のクリックで拡大表示]
図3 液浸冷却を適用
学習に使うサーバー機をそのまま液体で冷やせるようにする。