富士通は2016年11月29日、同社の人工知能(AI)技術「Zinrai」を用いた基盤サービスを開始すると発表した(発表資料1)。AIを用いたシステムの構築用にAPIを提供する「FUJITSU AI solution Zinraiプラットフォームサービス」や、DNN(ディープニューラルネットワーク)の学習を高速に実行できる「FUJITSU AI Solution Zinraiディープラーニング」などを、クラウド経由やオンプレミス(顧客の拠点に導入)で提供する(図1)。いずれも2017年4月から提供を始める。学習サービスでは、サーバー機の液浸冷却技術や、独自の学習アクセラレーターLSIの導入も計画。世界各地で事業を展開し、AI関連で2020年度までに累計3200億円の売上高を目指す。
学習サービスには、当初は米NVIDIA社のGPU「Tesla P100」8個を用いたサーバー機を利用する(図2)。NVIDIA社の深層学習用スパコン「DGX-1」(関連記事1)と同様な構成と見られる。深層学習フレームワークとして、2016年8月発表の「Distributed Caffe」を用意した(発表資料2)。
同社独自の技術として、サーバー機の液浸冷却も利用する(図3)。オンプレミスのサーバー機にオプションで提供するほか、同社のクラウド側のサーバー機への適用も検討している。通常の学習サービスで使うものと同じサーバー機をそのまま液浸冷却できるという。導入時期は学習サービスの開始時よりも後になる見込み。なお、同社はベンチャー企業のExaScalerと液冷技術を開発してきたが、その技術は液冷を前提に高密度実装したサーバー機を作ることが目的であり、今回導入する技術はそれとは若干異なるという(関連記事2)。