Hatena::ブログ(Diary)

Mi manca qualche giovedi`? このページをアンテナに追加 RSSフィード Twitter

2009-08-07 英語併記しがちなのは、単語わかんないと論文読めないから。

PRML読書会 #5 資料「線形識別モデル(3)」

これは パターン認識と機械学習(PRML)読書会 #5 (4章 線形識別モデル) での発表用の資料「4.1.7 パーセプトロンアルゴリズム」〜「おまけ(PA, CW)」です。 まとめメインで、細かい計算やサンプルは板書する予定です。

4.1.7 パーセプトロンアルゴリズム


  • 線形モデル y(¥bf{x}) = ¥bf{w}^T ¥phi(¥bf{x}) において、
    • φは特徴ベクトル ¥phi_0(¥bf{x}) = 1 (bias)
    • 目的変数: t ∈ {-1, +1}
    • ¥bf{w}^T ¥phi(¥bf{x}) ¥geq 0 なら +1(positive), < 0 なら -1(negative) に分類
  • ここで  ¥bf{w}^T ¥phi(¥bf{x}_n) t_n が正の時は正解、負の時は誤分類を示す

  • 誤差関数 :  E_P(¥bf{w}) = -¥sum_{n¥in¥mathcal{M}} ¥bf{w}^T ¥phi_n t_n, ¥hspace{20} ¥mathcal{M}: 誤分類された n
  • ¥bf{w}^{(¥tau+1)}=¥bf{w}^{(¥tau)}-¥eta¥nabla E_P(¥bf{w})=¥bf{w}^{(¥tau)}+¥eta¥phi_n t_n
    • ¥eta : 学習率パラメータ。w を定数倍しても符号は不変ゆえ、¥eta=1 としてよい
  • w は decision surface の法線ベクトル。これに誤分類した入力ベクトルを加える(あるいは引く)という動作になる

パーセプトロンの収束定理

「厳密解が存在する場合は」

「有限回」の繰り返しで解に収束する

問題点:
  • 収束に必要な繰り返し回数が非常に多い
  • 初期値やデータの提示順によって様々な解に収束してしまう(★解の最適性を評価していない)
  • K>2 への一般化が容易ではない(値の正負しか意味を持たないため)

Passive Aggresive Algorism *1
  • margin が閾値 1 を下回っていたら、正解であっても補正する(aggressive)
  • 累積二乗損失(cumulative squared loss)の最大値が想定可能であることを示す
  • 1次&2次の正則項を導入できる(PA1 & PA2)
  • Cost-Sensitive Multiclass Classification に応用
    • ★そのうち試してみるつもり

Confidence-Weighted*2
  • ¥bf{w}¥mathcal{N}(¥bf{¥mu}, ¥Sigma) に従うとして、(¥bf{¥mu}, ¥Sigma) を逐次学習するアルゴリズム
    • ★結構泥臭い計算&泥臭い結果なのに、性能がいいというのがおもしろい
  • 収束が早い。繰り返し無しでも十分な精度
    • ★と書いてあるが、岡野原さんの oll+手元のデータで試した限りでは、1回では精度がでなかった

*1:Crammer, K., Dekel, O., Keshet, J., Shalev-Shwartz, S., & Singer, Y. (2006). Online passive-aggressive algorithms. JMLR, 7, 551-585.

*2:Mark Dredze, Koby Crammer, and Fernando Pereira. 2008. Confidence-weighted linear classification. In ICML.

スパム対策のためのダミーです。もし見えても何も入力しないでください
ゲスト


画像認証