バックプロパゲーションに向けて(4)
今度考えるネットワークでは、今までとは異なって出力が複数あります。ニューロンの数が個あるとします。出力も個あることになります。番目のニューロンをで表し、その出力をで表すことにします。入力の個数はであって、出力の個数とは一般には等しくありません。番目の入力は今までと同じようにで表します。ニューロンにおけるに対応するシナプス係数をで表します。今までと同じように常にとします。
- ・・・・(24)
でを定義します。との関係は
- ・・・・(25)
で表されるとします。ここにはシグモイド関数で
- ・・・・(10)
で定義されます。教師信号も各々のニューロン毎に存在するとし、ニューロンの教師信号をとします。誤差を
で定義することにします。
を考えます。はニューロン内のシナプス係数の1つであり、は以外の出力にまったく寄与していないので
- ・・・・(26)
が成り立ちます。よって
- ・・・・(27)
ここで「バックプロパゲーションに向けて(2)」の式
- ・・・・(15)
と式(25)から
- ・・・・(28)
また、式(24)から
- ・・・・(29)
なので、式(28)(29)を式(27)に入れて
- ・・・・(30)
「バックプロパゲーションに向けて(3)」の式(20)
- ・・・・(20)
を今回の場合に拡張して
- ・・・・(31)
となりますので、式(31)と(30)から
- ・・・・(32)
となります。
このように1個のニューロンから図2のニューラルネットワークにした場合のバックプロパゲーションの適用はすんなり学習則を導くことが出来ました。