2015-09-01から1ヶ月間の記事一覧

制限ホップフィールドネットワーク(2)

「制限ホップフィールドネットワーク(1)」の続きです。 図1 が 図2 に変わると、式(3) ・・・・(3) はどのように書き換えられるでしょうか? まず式(3)のについて考えてみます。見える層のしきい値を、隠れた層のしきい値をで表します。そして見える層…

制限ホップフィールドネットワーク(1)

ディープラーニングには制限ボルツマンマシンが大きな役割を果たしているようなのですが、制限ボルツマンマシンの詳しい解説がネットの中で見つかりません。そこで、自力で何とか理解するために、制限ボルツマンマシンならぬ制限ホップフィールドネットワー…

多次元であること

ニューラルネットワークを勉強していて特徴的だな、と思ったことは、とてつもない多次元で物事を考えることです。たとえば、「パターン認識(1)」で扱った数字のパターン認識について考えると、これは5×7=35マス あります。 図1 このひとマス毎に0…

ホップフィールドネットワーク再検討(2)

「ホップフィールドネットワーク再検討(1)」の式(8) ・・・・(8) は、ニューロンの出力の更新によってエネルギーが増加しないことを示す式でした。「ホップフィールドネットワーク再検討(1)」では、ニューロンの入力と出力の関係を ・・・・(3) ・・・…

一様分布の標準偏差

ちょっと、一様分布の標準偏差を計算する必要が出てきたので、ここにメモです。今まで書いていた[ニューラルネットワーク]の話とはまったく関係ありません。 からまでの一様分布を考えます。 まず、この分布の確率密度を求めます。確率密度をで表すとすると…

ホップフィールドネットワーク再検討(1)

以前、ホップフィールドネットワークを検討した際には、各ニューロンの値は1か−1であるとしていました。これを通常のニューラルネットワークのように1か0の値を取るとしても、ニューロンの状態更新によってエネルギー ・・・・(1) が増加しない、ということ…

ニューラルネットワークによるデータの次元削減(Reducing the Dimensionality of Data with Neural Networks)(4)

トロント大学ヒントン(G. E. Hinton)教授のReducing the Dimensionality of Data with Neural Networksの和訳です。 文書について訓練した場合、オートエンコーダは迅速な検索を可能にするコードを生成する。我々は、804,414件のニュースワイア・ストーリー…

ニューラルネットワークによるデータの次元削減(Reducing the Dimensionality of Data with Neural Networks)(3)

トロント大学ヒントン(G. E. Hinton)教授のReducing the Dimensionality of Data with Neural Networksの和訳です。 我々の事前訓練アルゴリズムによって我々が深いネットワークを効率的に微調整することができることを証明するために、2次元上のランダムに…

ニューラルネットワークによるデータの次元削減(Reducing the Dimensionality of Data with Neural Networks)(2)

トロント大学ヒントン(G. E. Hinton)教授のReducing the Dimensionality of Data with Neural Networksの和訳です。 複数の隠れた層を持つ非線型オートエンコーダ内の重みを最適化することは困難である*1 *2 *3。大きな初期重みによっては、オートエンコーダ…

ニューラルネットワークによるデータの次元削減(Reducing the Dimensionality of Data with Neural Networks)(1)

トロント大学ヒントン(G. E. Hinton)教授のReducing the Dimensionality of Data with Neural Networksの和訳です。 ニューラルネットワークによるデータの次元削減 G. E. Hinton* and R. R. Salakhutdinov Department of Computer Science, University of T…