ともにゃん的データ分析ブログ

勉強したことの備忘録とかね

ハミルトニアン・モンテカルロ(HMC)法のざっくりとした解説とPythonによる実装

ベイズモデリングが流行っている中で多くのRユーザーはStanを使って解析をしているんではないかと思います。そして、Stanはハミルトニアンモンテカルロ(HMC)法と呼ばれる方法で事後分布からのサンプルを得ています。色々と解説記事はありますが、超ざっくりとHMCの原理をメモとして残しておくことにします。

ここで、基本的に私はHMCを伊庭先生のハミルトン4.pdf - Google ドライブこの資料で勉強したので、伊庭先生の資料を読めば私のこの記事は必要ないことをあらかじめ断っておきます((´^ω^)
なんでこれでいいの?という疑問は伊庭先生の資料で解決することでしょう((´^ω^)



記号の定義

まず、以下のように記号を定義します:

X: データ
θ=(θ1,,θd): d次元パラメータベクトル。は転置を表します。
r(θ|X): 事後分布(後にpが別に出てくるので、ここではrとしました)

上記の事後分布からHMCでサンプリングをすることを考えます。


ハミルトニアンとハミルトン方程式

まっっっったく詳しくないのですが、ハミルトニアンとは運動エネルギーV(p)とポテンシャルエネルギー(位置エネルギー)U(θ)の和で定義される以下の物理量のことです。ここでp=(p1,,pd)θと同じd次元のベクトルとします:

H(θ,p)=V(p)+U(θ)


また、ハミルトン方程式と呼ばれるものが以下のように表現されます:

dθj(t)dt=V(p)pjdpj(t)dt=U(θ)θj

物理の言葉を借りると、pは運動量でθはある物体の位置を表しています。上記のハミルトン方程式はある物質に運動する力pを与えてやることで、その物質の位置θが変化するという現象を表したモデルになっています。このアナロジーは以下の説明でHMCを理解する上でとっても役立ちます。


さて、このとき以下のようにpθの同時確率密度関数q(p,θ)ハミルトニアンH(θ,p)だけの関数だけの関数、つまり

q(p,θ)=f(H(p,θ))

という形で定義したとき、上記のハミルトン方程式に従ってpの値とθの値を変化させれば、それは確率密度関数q(p,θ)=f(H(p,θ))からのサンプリングをしたこととみなせるという素晴らしい性質を持っています。ここがHMCのポイントだと思います。

ハミルトニアン方程式の解き方

一般に、リープ・フロッグ法と呼ばれる方法で解くようです。ここで次のように記号を導入します:

p(t)t番目のステップにおけるpの値
θ(t)t番目のステップにおけるθの値

また、次のようにパラメータを導入します:

T:状態変化を行う回数
ϵ:1ステップで状態変化をどの程度許すか



詳しい解説はグーグル先生にまかせて、以下に計算の流れを記します:

===========================================================

Step 0. t0、またp(0)θ(0)に初期値を設定。

Step 1. 以下のようにθを更新:
θj(t+0.5)θj(t)ϵ2U(p)pj(t)

Step 2. 以下のようにpを更新:
pj(t+1)pj(t)+ϵ2V(θ)θj(t)

Step 3. 以下のようにθを更新:
θj(t+1)θj(t+0.5)ϵ2U(p)pj(t+1)

Step 4. tt+1 としてStep. 1 - Step. 4をt=Tになるまで繰り返す。

===========================================================


ここで、t+0.5ステップという普段見ない表記を導入していますが、中間のステップということを表現したいがために便宜的に導入したものです。


具体的なq(p,θ)の形

上記のハミルトニアンの右辺に出てくるV(p)U(θ)を、具体的に以下のように指定してやります:
V(p)=i=1Npi22τ2U(θ)=logr(θ|X)


またq(p,θ)=f(H(p,θ))fについて、指数関数の逆数
f(y)=exp(y)
を指定してやります。


このときq(p,θ)は以下のように:

q(p,θ)=exp(i=1Npi22τ2+logr(θ|X))=exp(i=1Npi22τ2)exp(logr(θ|X))=(i=1Nexp(pi22τ2))r(θ|X)=(i=1N12πτexp(pi22τ2))r(θ|X)


上記の分布をよくみてください。平均0、分散τ2正規分布と目的の事後分布の掛け算になっています。掛け算で表現されるということは、つまりpθは独立しているということです。

さて、q(p,θ)ハミルトニアン方程式の状態変化の定常分布でした。加えて、上記の式をみるとpは平均0、分散τ2正規分布に従います。つまり、θとは独立にpを平均0、分散τ2正規分布からサンプリングし、その値を用いてハミルトン方程式を解くことで新たなθの値を得ます。

ここで、ハミルトン方程式と解く際に、現在のθの値から状態を変化させるために以下のようにリープ・フロッグ法のStep 0. を変更します:

===========================================================

Step 0.
t0と設定
p(0)に平均0、分散τ2正規分布から発生させた値を設定
θ(0)を現在のθの値を設定

Step 1. 以降は上で述べた方法と同じで、ハミルトン方程式を解いて新たなθを得ます。

===========================================================

以上の流れで得たθを目的の事後分布からのサンプルとみなしたいところですが、上記のハミルトン方程式をリープ・フロッグ法を使って得ということは、コンピュータで”近似的”に解くということで、厳密解ではありません。そこで、ハミルトン方程式を解いて得たθを、目的の分布からのサンプルの”候補”とみて、メトロポリス法のように以下のようなサンプルの受理・棄却のステップを設けてやります。ここでθpを現在のθの値、θpをハミルトン方程式を解いてθpの状態変化を行った後の値とします:

===========================================================

確率 min(exp(H(p,θ))expH(p,θ),1) で状態変化後の値θに移動

===========================================================


このように、ハミルトン方程式を決定論的に値を決定するパートと上記の受理・棄却パートのように確率的に値を決定するパートがあるので、HMCはハイブリッド・モンテカルロと呼ばれたりもしています。

HMCのパラメータ

今まで見てきた中で、分析者が指定しなければならないパラメータが以下のように3つあります:

τ:運動量pが従う正規分布の分散
T:リープ・フロッグ法でハミルトン方程式を解くときの状態変化の回数
ϵ;リープ・フロッグ方でハミルトン方程式を解くときの1ステップあたりの状態変化の大きさ


τを大きくすれば0から離れた値のpが出やすくなり(物理的にはθの運動が大きくなり)、それにともなってθの値は大きく変わりやすく(物理的にはθの位置が大きく移動しやすく)なります。Tの値を大きくすれば、状態変化をする回数が多くなるということなので、前の値のθから異なる値へより変化していきます。ϵの値を変更すると、状態変化の具合が変わります。


Stanに実装されているNUTSという手法は、上記のパラメータTを自動化するもので、HMCの敷居を大きく下げました。


Pythonによる実装

PythonでHMCを実装します。
今回は、簡単に平均100、分散22正規分布からサンプリングをしたいと思います。

pythonのコードは以下のようになりました:

%matplotlib inline
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

# Log probability
# ここでは平均mu, 標準偏差sigmaの正規分布
# -1をかけると物理でいうポテンシャルエネルギー
def log_normal(x, mu, sigma):
    return -0.5*np.log(2*np.pi*sigma**2) - (x-mu)**2/(2*sigma**2)

# Log probabilityの導関数
def d_log_normal(x, mu, sigma):
    return -(x-mu)/sigma**2

# 運動エネルギー
def momentum(p, tau):
    return p**2/(2*tau**2)

# 運動エネルギーの導関数
def d_momentum(p, tau):
    return  p/tau**2

# ハミルトニアン
# 運動エネルギーとポテンシャルエネルギーの和
def Hamiltonian(x, p, tau):
    global mu, sigma
    
    return momentum(p, tau) + (-1.*log_normal(x, mu, sigma))

# リープ・フロッグ法を事項する関数
def proceed_leapflog(epsilon, x, p, tau):
    global mu, sigma
    
    x += -0.5*epsilon*(-1.*d_momentum(p, tau))
    p += epsilon*d_log_normal(x, mu, sigma)
    x += -epsilon*(-1.*d_momentum(p, tau))
    
    return x, p

# HMCを1ステップ実行するサブルーチン
def proceed_HMC_iteration(x, tau, epsilon, T):
    p = np.random.normal(0, tau, size=1)[0]
    p_new = p
    x_new= x
    for t in range(T):
        x_new, p_new = proceed_leapflog(epsilon, x_new, p_new, tau)
        
    alpha = np.exp(Hamiltonian(x, p, tau) - Hamiltonian(x_new, p_new, tau))
    u = np.random.uniform()
    if u < alpha:
        x_accepted = x_new
    else:
        x_accepted = x
        
    return x_accepted

# HMCを実行する関数
def proceed_HMC(tau, epsilon, T, ite, init):
    # Initialize
    x = [init]
    for i in range(ite):
        x.append(proceed_HMC_iteration(x[i], tau, epsilon, T))
    
    return x

以下のように目的の正規分布の平均を初期値と設定して実行してみます。

init = 100
theta = proceed_HMC(tau=2, epsilon=0.1, T=10, ite=2000, init=init)

plt.plot(theta)

f:id:kefits:20170314002838p:plain

ちょっと自己相関が高い感じになってるのでリープ・フロッグ法でハミルトニアン方程式を解く際のステップ数Tを30にして、もっとθの状態を変化を待ってみましょう。

init = 100
theta = proceed_HMC(tau=2, epsilon=0.1, T=30, ite=2000, init=init)

plt.plot(theta)

f:id:kefits:20170314003947p:plain

自己相関が小さくなった気がしますね。

ここでちょっと意地悪をして、初期値の値を目的の分布のテールがほとんどない0からスタートしてみます。

init = 0
theta = proceed_HMC(tau=2, epsilon=0.1, T=30, ite=5000, init=init)

plt.plot(theta)

f:id:kefits:20170314004610p:plain

すごいぜHMC。メトロポリス・ヘイスティングではこうはいかないと思います。


最後に

ベイズ推論をするにあたって、多くの場合で事後分布が解析的に解けないために事後分布に従う乱数(事後サンプル)を発生させ、それ使用して色々な分析をします。よく聞くマルコフ連鎖モンテカルロ(MCMC)法は、事後サンプルを得る方法群の名前です。ギブスサンプラーメトロポリス・ヘイスティング法といった色々な種類のMCMC法が存在します。ベイズ推論において、Stanに実装されているHMCも事後サンプルを得るために使われる一つの方法です。要はどんな方法であれ、最終的に手元に"理論的に正しい"事後サンプルが手に入っていれば解析ができるので、それでよいのです。ただしそれぞれの方法には特徴があって、問題に合わせて使い分ける必要があるように思います。

世の中にはStanやBUGS、JAGSといったベイズ推論を実行することのできるとっても便利な言語があって、我々はそれらを使ってすぐにベイズ推論を行うことができるようになっています。モデリングの試行錯誤も楽ちんです。一から実装していては、モデルが変わるたびにコードを書き直さなければならないので試行錯誤が大変です。ただし、例えば最終的に構築されたモデルをに対してギブスサンプラーが構築できる時にはギブスサンプラーを使ったほうがサンプリング時間が圧倒的に短く、収束も早いことがあります。昔、以下の本の内容をStanで実装していて思い知らされました(この本の著者はマーケティング分野ではかなり有名な研究者です)。

Bayesian Statistics and Marketing (Wiley Series in Probability and Statistics)

Bayesian Statistics and Marketing (Wiley Series in Probability and Statistics)

特定のモデルについてですが、Rossiは線形代数や分布の特性を駆使してギブスサンプラーによって効率的にサンプリングできる関数をパッケージ化して{bayesm}というパッケージを作っています。Stanとは比べ物にならないスピードで収束します。
Stan便利だぜ、すげえぜ、と思いますが、他の方法の方が良いこともあるということは頭に入れて置かなければなりません。