神経回路網の自己組織と神経場のパターン力学 甘利俊一著(8)
「神経回路網の自己組織と神経場のパターン力学 甘利俊一著(7)」で述べた私の解釈、つまり
という解釈が正しいのかどうか自信がありません。しかしこの問題はひとまず置いておいて、次に進みます。
- 2.3 教師あり学習の例
これは、私が「1個のニューロンの学習(1)」の初めでぎこちなく問題定義しようとしたことをきれいに定式化したものだと思います。
学習信号として、教師信号と細胞の出力の差をとり、
- とすれば、ある条件のもとで、学習が完全に成功すること、すなわちに属する信号が入力すると興奮し、に属する信号が入力しても興奮しないようになることが知られている(パーセプトロンの学習)。
パーセプトロンの学習が収束することの証明は「1個のニューロンの学習(5)」〜「(8)」に示しました。しかしここでは平均学習方程式(8)
からパーセプトロンの学習の収束を証明出来るのでしょうか? それ以前にそもそも、
- ・・・・(a13)
とすることがパーセプトロンになるのでしょうか? 以前の議論でパーセプトロンで使用した標準デルタ則は以下のようなものでした。
- ・・・・(a14)
- ・・・・(a15)
でした(「1個のニューロンの学習(2)」の式(2)(3)参照)。ここでは任意の正の定数です。一方、式(7)に式(a13)を代入すると
- ・・・・(a16)
となります。式(a14)(a15)と式(a16)を比べてみると、似た点もありますが異なる点もあります。まず(a14)はしきい値の変化に関する式ですが、(a16)ではしきい値が変化しません。次に、学習が完了して常にとが一致するようになった時、(a14)(a15)ではしきい値やシナプス荷重ベクトルはもはや変化しなくなるのですが、(a16)のほうは
- ・・・・(a17)
となって最終的にはゼロベクトルに収束してしまいます。しかし、それでは学習したことにはなりません。そうすると式(a16)に従ってパーセプトロンの動作を導くことが出来るのかあやしくなってきます。これをどう考えたらよいのでしょうか? 今の私には分かりません。
*1:こういう関数をなんと呼ぶのだろうか? 確率過程だろうか・・・