「人工意識」を開発する国内ベンチャー、アラヤのCEOが語る連載の第2回。前回紹介した「反実仮想的情報生成仮説」に基づくロボットの実用化スケジュールや、意識を生むためのアーキテクチャーを紹介。さらに、意識のもう1つの機能と目する「内省」の再現を目指した、「会話するニューラルネット」の概要を解説する。(聞き手=今井拓司)

5段階で学習環境を進化

 ロボットの学習に関する研究開発は、5段階ぐらいのステップでやっていこうと思っています。その上に、いずれは先ほどの「反実仮想的情報生成」のようなものを載せていきたい。こうした研究は、事業として役立つところと、まだまだギャップがあるのは事実ですが、実験を通してだんだんメリットが分かってきました。ロボットがやることが完全に決まっているなら従来の方向でいいと思うのですが、いわゆるAmazonのピッキングチャレンジ本誌注2)のような状況で、ものすごく速くやろうとすると、我々の考え方が役立ってくるはずです。

本誌注2)2017年からイベントの名称は「Amazon Robotics Challenge」に変わった。

 5段階の1番目は、ロボット開発の1ステージとして、バーチャルな空間でロボットをトレーニングしたり、コントロールしたりする環境を整えることです。ディープラーニングの技術を活用できるように、「TensorFlow」などの深層学習フレームワークと、ロボットのシミュレーターの間をちゃんとつなげるようにします。2段階目では、バーチャルな世界に通常の強化学習を入れて、ロボットの学習を速くすることを目指します。第1段階を今後2~3カ月で実現し、第2段階は2018年の終わりの製品化が目標です。

 3段階目の狙いは、いわゆるゼロショットラーニングのように、見たことがないものが来ても、ちゃんと対応できるようにすることです。例えば、扱う対象がどういう材質でできているか分からないから、最初は恐る恐る持ってみるとか、ちょっとつんつんと触ってみようとか。

ゼロショットラーニング=例えば画像分類問題で、学習データにない分野の画像を入力した際にも正しく分類できるようにするなど、学習時に与えられなかった種類の入力データを適切に処理可能にする学習手法。

 その方法をあらかじめつくり込むのではなく、自分でそういう方法を見つけ出すようなロボットが、あり得ると思うのです。どういうふうにやったら、それを壊さないで、どういうものなのかの情報を素早く手に入れられるのか、その方法を、その瞬間に発見していくような。第3段階は、2018年の半ばくらいにデモを終えて、もう1年くらいかけて製品化していきます。

 先ほどの「反実仮想」が出てくるのは、4段階目と5段階目の計画です。詳細は未公表ですが、ロボット自体がかなり自律的になるはずです。理想としては、ロボットに具体的に何をするかを教えなくても、「これをやりなさい」と言えばできるようになることを目指しています。第4段階は2018年中にデモができるようにして、2019年に製品化できればと。第5段階は、2018年の前半から始めて、1年くらいでデモをつくっていく計画です。