前回は、畳み込みニューラルネットワーク(CNN)、再帰型ニューラルネットワーク(RNN)、長・短期記憶(LSTM)について解説した。今回は、系列変換モデルと対応付けの学習について、注意型ネットワークとコネクショニスト時系列分類法を取り上げる。また、ライブラリーの利用について見渡していく。 (本誌)

 連載の前回で取り上げたモデルはいずれも、ある入力に対して出力が1つ得られる。今回は、入力の系列から出力の系列が得られる系列変換モデルを取り上げる。このとき重要な機能が入力と出力の対応付けを最適化することであり、その方法として注意型ネットワークとコネクショニスト時系列の2つを解説する。