神経回路網の自己組織と神経場のパターン力学 甘利俊一著(9)
式(a16)
- ・・・・(a16)
を救おうとしてひとつ思いついたのが、に比べてとが非常に大きい、とすれば式(a16)は近似的に
- ・・・・(a18)
とみなすことが出来て、以前検討していた標準デルタ則
- ・・・・(a15)
に近くなるのではないか、というものです。
しかし、これもうまくいかないような気がします。というのは学習が進めばになる確率が大きくなります。するといくらが大きくてもの値がゼロになる確率が大きくなりますので(a16)のを無視することが出来なくなる確率が大きくなります。こう考えると
- ・・・・(7)
という枠組みでパーセプトロンを考えること自体が困難なような気がします。
この件が解決しないので「神経回路網の自己組織と神経場のパターン力学」の読解を先に進めることが出来ません。少し時間をとって、別の方向に進んでいこうと思います。ただ、この論文のこのセクション「2.3 教師あり学習の例」の残りの部分だけは以下に示しておこうと思います。
- また、信号に対する教師信号が一般のアナログ信号であるときに、を受けて出来るだけに近い信号を出力するようにを調整する学習がある。これについても、平均学習方程式を用いると、種々の結論が得られる。すなわち、学習信号を教師信号に等しくとおくといわゆる相関学習が実現でき、また
- とおくと、最小二乗の意味、すなわち、を入力したときの細胞の実際の出力と教師信号の指示する出力との差の二乗平均を最小にするという意味で、一番良いを得る学習が実現できる。このことを利用して、神経素子を用いた連想記憶システムを作り、その能力を調べることができる。
魅力的な記述が続くのですが、今の私には理解出来ません。いつか再チャレンジです。