7.ギブスチェーン・モデルにおけるLog尤度の打切り――Learning Deep Architectures for AI
Learning Deep Architectures for AIの翻訳です。
7.ギブスチェーン・モデルにおけるLog尤度の打切り
ここでは、異なる観点から対照分岐更新ルールに近づく。これはその可能な一般化をもたらし、その性能を監視するのにしばしば用いられる再構築誤差に関係し、これはオートアソシエータを最適するのに用いられる(式5)。この導出のひらめきはHinton et al. (2006)に由来する。最初に(セクション11.1で説明する)ギブスチェーンは無限有向グラフモデルに関係づけることが出来るというアイディアから(ここでは無限有向グラフモデルをlog尤度とその勾配の展開に関連づける)。2番目に、(チェーンのサンプルがモデルに由来するとき、式33の期待値は式15に等しくなるので)チェーンの収束は対照分岐を正当化するというアイディアから来ている。
条件付き分布とによって定義される、収束するマルコフチェーンを考察しよう。収束のための充分条件はそれが混合すること、つまり、任意の状態から任意の状態へ有限時間のうちに到達出来ること、である。
以下の補題(Bengio & Delalleau, 2007で示された)は、ベイズの規則の連続適用によって、シリーズ内のlog尤度をギブスチェーンでのサンプルを含むように展開することが出来ることを示している。
補題7.1. データ点から出発するギブスチェーンを考える。チェーンの任意のパスについてlog尤度は以下のように展開出来る。
(39)
そしてその結果、これは任意のパスで真なので
(40)
ただし期待値はマルコフチェーン上であり、に関して条件付けられている。
極限において、最後の項は分布のエントロピーになる。で諸項が消滅しないので、この展開はlog尤度の近似のために級数を打ち切ることを正当化しないことに注意。制限ボルツマンマシンの訓練の進歩を監視するためにしばしば用いられる、再建誤差が級数の第1項に密接に関係していることをあとで確かめる。
さて、対応する勾配級数を考察しよう。この定理を証明するためには、以下の簡単な補題が非常に有効で、これはのちに使用される。
補題7.2. パラメータを持つ任意のモデルについて、期待値がに従って取られる時
(41)
証明。合計が1になるというに関する制約から始め、微分してこの補題を得る。以下の最後の行を得るために、任意の関数についてであるという事実を用いる。
□
次に以下の定理が証明出来る(Bengio & Delalleau, 2007)。
定理7.3. データ点から始まって収束するギブスチェーンを考察する。収束する級数でのlog尤度勾配は以下のように展開出来る。ここで全ての期待値はについての条件付きである。
(42)
ここで、の項はで0に収束し、最後の(の)項もで0に収束する。
番目の項はが増加すると小さくなるので、これはチェーンをステップで打ち切ることを正当化する。上の展開での和が(ギブスチェーンの最初の[tex;k]ステップについての)サンプルを得ることでどれほど容易に置き換えられるかについて注意せよ。これは確率的勾配をもたらし、その期待値は上のlog尤度勾配展開の打ち切りに関係する正確な式である。最後に、二項制限ボルツマンマシンの場合、最初のステップでの打切りは、まさにCD-更新であるようなパラメータ更新を与えることを、示すことが出来る(Bengio & Delalleau, 2007)。
系7.4. ギブスチェーンにおける最初のステップから生れる項だけを考えるとき、二項制限ボルツマンマシンの場合、(チェーン内のサンプルで置き換えた期待値を持つ)定理7.3の、打ち切られたlog尤度展開の勾配の、バイアスのない確率的評価子はCD-更新に等しい。
実験と理論は、CD-はCD-に比べて、よりよい、そして(繰り返しの回数について)より速い収束をもたらす、という考えを支持している(しかし計算コストがいつもそれに見合っているとは限らないだろう)。これは、より小さいは、log尤度勾配の評価におけるより多くのバイアスに対応するためである。よってCD-1は、この展開の最初の2つの項(のサンプル1個とのサンプル1個)を採用することに対応する。最初の1項だけ採用するとしたらどうであろうか? log尤度勾配の最初の項は
(43)
である。さて、上記の平均場近似を考える。そこでは、に従う全ての構成に渡っての平均の代わりに、をその平均構成に置換えて、
(44)
を得る。これは、通常オートアソシエータを訓練するのに用いる再建誤差
(45)
の勾配にマイナスをつけたものである。
よって、log尤度展開の打切りは(バイアスのある平均場近似によって)おおよそ再建誤差になる一次近似(1つの項)、(期待値を1つのサンプルで近似する)CD-1になる、若干良い近似(2つの項)、CD-になる、より多くの項、をもたらす。再建誤差は決定論的に計算され、この理由で、制限ボルツマンマシンをCDで訓練する時に進歩を追跡するのに用いられてきた。再建誤差とCD-は(log尤度勾配の評価子として)バイアスと分散に関して相補的であるので、それらの組合せを調査することは興味のあることであろう。低分散高バイアス評価子(再建誤差勾配)は訓練の開始時には(勾配の精密な評価はあまり重要でないので)より有効であろうが、一方、低バイアス高分散評価子(CD-)は訓練を収束させるためにはより有効である。