神経回路網の自己組織と神経場のパターン力学 甘利俊一著(6)
- よりくわしくいうと、情報源は一つの信号を確率で選んで、一定間隔の間これを神経細胞に入力し、次に前とは独立にまた一つ信号を選んで神経細胞に入力し、この過程を繰り返すものとする(教師信号がある場合は、対応するも同時に発生する)。すなわち、学習の情報源は確率的であり、外界の情報構造はの発生する確率分布(教師信号のある場合はととの同時確率分布)の形で与えられるものとする。情報源には、外界にどのような種類の信号が多く含まれているかという情報(教師信号のある場合は信号に対し教師信号はどういう指示をするかという情報)が含まれている。このとき、学習情報源の発生する信号の時系列は、長い時間で観察すれば、各信号が確率に近い頻度で含まれている筈である(難しくいうと、情報源のエルゴード性ということになる)。
- 神経細胞の学習方程式(6)の解は入力時系列に依存して定まる。しかし、が情報源の確率構造を反映していること(すなわちの中で各信号の頻度がに近いこと)を考えてみると、一種の大数の法則が働いて、解は情報源の確率構造だけでほぼ定まってしまうことが十分に予想できる(エルゴード性)。
- そこで、方程式(6)またはベクトルで書き直した
- ・・・・(7)
- の右辺第2項を、情報源の信号について平均した方程式
- を考えてみよう。ここに、はについての平均であり、学習信号は一般にを含むから
- [tex:\left
=\Bigint{p}(\under{x})r(\under{s},\under{x})\under{x}d\under{x}] - である(を含むときはについての平均)。方程式(8)は平均の結果もはやを含まず、だけの方程式になる。これを平均学習方程式と呼ぶが、この方程式の解は、ほとんどすべての場合に、実際の学習方程式(7)の解の良い近似を与えることが数学的に証明できる。そこで(8)を神経学習の基本方程式と考えよう。情報源の確率構造は、平均 をとるときに関与し、平均学習方程式の解はを通じ情報源の構造を反映する。
さて方程式(6)
- ・・・・(6)
をベクトルを使って書き直して
- ・・・・(7)
とするのは問題ありませんが、それを平均した式
の解は本当に「ほとんどすべての場合に、実際の学習方程式(7)の解の良い近似を与えることが数学的に証明できる」のでしょうか? まず留意しなければならないことは式(7)の右辺の(より正確には)は確率的に変動する関数であるということです。ということは、これがうわさに聞いていた確率微分方程式ですか。私はさっそくWikipediaの「確率微分方程式」の項目を読んでみましたが、さっぱり理解出来ません。まず、簡単な問題から考察してみようと思います。