前回はこちら

 今回はニューラルネットワークを扱います。ニューラルネットワークはかなり歴史が古く、流行ったり廃れたりを繰り返しながら少しずつ進歩を遂げてきました。今日では、ディープラーニング(深層学習)によって幅広い層にその存在を知られるようになり、一躍最新のアルゴリズムへと進化しました。ここではそんなニューラルネットワークについて見ていきましょう。なお、この内容は以前のブログ「人工知能はDeep Learningによって成されるのか?」でも触れているので興味があれば併せて御覧ください。

神経細胞を模倣した形式ニューロン

 脳が神経細胞のネットワークによって成り立っていることから、これを模倣することで高度な情報処理ができるのではないかと予想するのは自然な流れといえます。マッカロック(Warren S. McCulloch)とピッツ(Walter Pitts)は、1943年に図1に示すような入出力関係を持つ「形式ニューロン(formal neuron)」を提案しました1)。マッカロックは神経生理学者、ピッツは数学者であり、異業種のコラボによって生まれたアイデアです。

図1 形式ニューロン
図1 形式ニューロン

 図1の見方は簡単です。丸で表されたニューロンに入力信号xが3つあり、それぞれの入力信号に対して重みwを掛け算した上で合計し、合計値が閾値θを超えていれば出力は1、そうでなければ出力は0となります。例えば、入力が1、2、3、重みが0.5、0.7、0.9だとすると、1×0.5+2×0.7+3×0.9=4.6と計算して、閾値と比較するわけです。やっていることは掛けて足して比較するだけの簡単なモデルです。