神経回路網の自己組織と神経場のパターン力学 甘利俊一著(7)

では

  • \tau\under{\dot{s}}=-\under{s}+cr\under{x}・・・・(7)

についていろいろ考えてみたいと思います。私は時間による微分をドットで表す方法は好きではないので*1、以下のように書き表します。

  • \tau\frac{d\under{s}}{dt}=-\under{s}+cr\under{x}・・・・(a8)

この式でベクトルの1つの成分だけ取り出して考えます。

  • \tau\frac{ds_i}{dt}=-s_i+crx_i・・・・(a9)

さらにx_iは確率1/2で値1を取り、確率1/2で値0を取るものとします。またc=1とします。r(\under{s},\under{x})は本来は\under{s}\under{x}の関数ですが、ここでは簡略化のためr=1とします。すると、もし時定数\taux_iが1または0を持続する時間\Delta{T}に比べて極めて短い場合は、s_ix_iの値と同じ1または0にすぐに収束します。するとs_i(t)の変化の様子は例えば下記グラフ1の青い線のようです。ここではs_iの初期値s_i(0)は0であると仮定しました。

  • グラフ1

一方、crx_iの平均[tex:\left]は仮定から1/2になります。よって式(8)

        • [tex:\tau\under{\dot{s}}=-\under{s}+c\left]・・・・ (8)

に対応する

  • [tex:\tau\frac{ds_i}{dt}=-s_i+\left]・・・・(a10)

  • \tau\frac{ds_i}{dt}=-s_i+\frac{1}{2}・・・・(a11)

となります。これの解をs_i(0)=0の条件で解くと

  • s_i(t)=0.5-0.5\exp\left(-\frac{t}{\tau}\right)・・・・(a12)

となります。これをグラフに示したのが上のグラフ1の赤い線です。赤い線と青い線は一見、まったく違います。この様子を見ると、論文に書かれていたような

この方程式の解\under{s}(t)は、ほとんどすべての場合に、実際の学習方程式(7)の解の良い近似を与えることが数学的に証明できる。

という記述は理解しがたいものになってしまいます。


しかしよく考えると、青い線はx_iがどう変化するかによって変わります。x_iは確率変数なので、グラフ1に青線で示したグラフは多数ある可能性のうちの一例でしかないことが分かります。つまりs_i(t)自身が確率変数ということになります。では各時刻におけるs_i(t)の平均(時間平均ではない。集合平均の意味で。)[tex:\left]を考えてみましょう。先にs_i(0)=0という初期条件を課しましたから[tex:\left=0]です。時定数\tauが小さいのでtが少し経過しただけでs_i(t)は0または1に急速に近づきます。そしてその後は大部分の時間において0または1に近い値を取ります。そして0に近いか1に近いかは1/2の確率です。よって[tex:\left=1/2]になります。すると[tex:\left]の時間変化の様子は上のグラフの赤い線と似たものになることが想像できます。このように考えた結果、私は、

  • 「この方程式の解\under{s}(t)は、ほとんどすべての場合に、実際の学習方程式(7)の解の良い近似を与える」

という記述を、この方程式(ここでは(a9))の、初期値を定めた場合の結果の解s_i(t)の(集合)平均[tex:\left]を、式(a10)を解くことによって近似的に求めることが出来る、という意味に解釈しました。

*1:ライプニッツが好きなので