1個のニューロンの学習(4)

1個のニューロンの学習(3)」では標準デルタ則を持つマカロック・ピッツのモデルのニューロンが学習する様子を示した。ところで標準デルタ則を持つマカロック・ピッツのモデルは、パーセプトロンと呼ばれている。実は、パーセプトロンという名前には歴史的な用語の混乱がある。パーセプトロンという名前は本来ローゼンブラットが、自分の提案したモデルに付けた名前である。そのモデルは複数のニューロンからなる1種のニュラルネットワークであった。しかし、現在では1個のニューロンを指してパーセプトロンと呼んでいる。ローゼンブラットが提案したモデルとこの1個のパーセプトロンとの関係については、のちに考察する。


さて、「1個のニューロンの学習(3)」で示した例では確かに最終的にはニューロンは教師信号に基づいて学習を完了したが、この1例だけを以って、「1個のニューロンの学習(1)」で述べた標準デルタ則

  • h{\leftar}h-a(r-y)・・・・(2)
  • s_i{\leftar}s_i+a(r-y)x_i・・・・(3)

が、線形分離可能なパターン群の識別を必ず学習出来る、と主張することは出来ない。「1個のニューロンの学習(3)」の例でも、シナプス荷重やしきい値の初期値を変えてもうまくいくか、あるいは別のパターン群の識別でもうまくいくか、あるいはこの例では入力信号は2個だけだが、もっと数を増やしても学習出来るのか、という疑問が出てくる。しかし、この、標準デルタ則でうまく学習出来る、ということはすでに1960年代後半にマービン・ミンスキーシーモア・パパートによって証明されている、ということである。よって、線形分離可能なパターン群の識別を学習出来るニューロンモデルを得ることが出来た。このモデルの弱点は、線形分離可能なパターン群でなければ学習出来ない、という点である。「パターン認識(3)」で述べたように、1個のニューロンではなく複数のニューロンを組み合わせれば一般のパターン群識別が可能になる。しかし、この標準デルタ則を複数のニューロンからなるニューロネットワークに拡張しようとすると困難に遭遇する。というのは、標準デルタ則では、ニューラルネットの最終出力と教師信号を用いてシナプス荷重としきい値を調整するのであるが、それはあくまで1個のニューロンに対してであり、これをどのように複数のニューロンに拡張すればよいのか、指針がないからである。この困難をどのように突破するかが次の課題である。


ここで、パーセプトロンについての自分なりの考えを記しておきたい。
1つの点は、このパーセプトロンは教師信号による一種のフィードバックになっている、ということである。この点はウィーナーが「サイバネティックス」で(「記憶と学習について」に引用した箇所で)学習をフィードバック機構によって説明しようとしていたのを思い出す。
2つ目は、コンピュータのプログラムとの違いについてである。コンピュータの場合、あるパターン群の識別をさせるとすれば、人がそのためのプログラミングをして、そのプログラムはコンピュータのメモリに保存される。一方、このパーセプトロンにはそのようなプログラムが見当たらない。あえてプログラムに対比するものを挙げるとすれば、シナプス荷重としきい値である。もし、パーセプトロンがいくらかでも動物の脳の動作を反映したモデルであるとするならば、この点にコンピュータと脳の相違があるように思える。脳は、そのどこかにプログラムが格納されていて、それが一部ずつCPUに呼ばれて動作をするわけではない。