33.
ReLU (Rectified Linear Unit)
赤: 𝑖 𝜎(𝑥 − 𝑖 + 0.5)
青: log(1+exp(x))
緑: max(0,x+N(0,σ(x))
35
Nair, V., & Hinton, G. E. (2010).
Rectified Linear Units Improve
Restricted Boltzmann Machines.
より
34.
Deep Belief Network(DBN)
deep learningの火付け役となったモ
デル [Hinton et al. 2006. A Fast Learning
Algorithm for Deep Belief Nets]
最上位層のみ無向エッジでほかはす
べて有効エッジ
下位層から順にRBMで学習(pre-
training)
学習した値を初期値に順伝播型の
ニューラルネットとして学習(fine-
tuning)
このとき,最上位に出力層を追加す
る(その重みはランダムに初期化)
36
35.
Deep Boltzmann Machine(DBM)
層間が無向エッジで結ばれた構造
隠れユニット間に相互結合があるので
RBMのように簡単に計算ができない
平均場近似(隠れ層どうしの独立性を
仮定して近似)で最適化を行う
38
36.
Deep Boltzmann Machine(DBM)
DBMも順伝播型ネットワークに転換できる
そのとき,DBNの最上位層も入力として加えるという
拡張を行うことができる
39
Salakhutdinov, R., & Hinton, G. (2009).
Deep Boltzmann Machines より
37.
Reference
Bishop(2006), “Pattern Recognition and Machine Learning”
Hinton(2002), ”Training products of experts by contrastive
divergence”
Nair, V., & Hinton, G. E. (2010). ”Rectified Linear Units Improve
Restricted Boltzmann Machines”
Salakhutdinov, R., & Hinton, G. (2009). “Deep Boltzmann
Machines”
Hinton et al. (2006). “A Fast Learning Algorithm for Deep Belief
Nets”
岡谷貴之(2015) “深層学習”
“RBMから考えるDeep Learning ~黒魔術を添えて~”
http://qiita.com/t_Signull/items/f776aecb4909b7c5c116
“Deep Learning Tutorial” http://deeplearning.net/tutorial/
40
A particular slide catching your eye?
Clipping is a handy way to collect important slides you want to go back to later.
Be the first to comment