不確実性を考慮した時系列データ予測
2018/06/25

不確実性を考慮した時系列データ予測

はじめに

カブクで機械学習エンジニアをしている大串正矢です。今回は不確実性を考慮した時系列データ予測について書きます。

背景

深層学習では点推定と呼ばれる、ある1点の推定は得意です。例えば、ある画像が与えられたときに、それが90%の確率で猫の画像であるというような推定が可能です。しかし、この確率のブレ幅がどの程度かまでは出してくれません。

85〜95%の90%なのか70〜95%の90%なのかでその信頼度は変わってきます。過去のケースなど実際のデータがある場合は確認は可能ですが未来や未知の予測の場合はブレ幅も分かっていることでどの程度信頼しても良いのか判断できます。このようなブレ幅を不確実性と呼びます。

ベイズの考えを取り入れればこの不確実性を取り入れることが可能です。
実は深層学習にこのベイズの考えを取り入れるための手法としてベイズとDropoutが近似できることを示した論文が出ています。

Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning

今回はこの性質を用いて不確実性をどのように表すか見てみます。

ベイズについて

Dropoutはベイズの近似であることを理解するためにまず、ベイズについて理解しておく必要があります。入力データがX(例えば画像データなど)、予測すべきラベルがY(猫などのラベル)、学習によって得られる重みパラメータがW(学習で得られる重みパラメータ)とすると学習の際のベイズの式は下記のように記述できます。この式でp(W)事前分布になります。

p(W|X,Y)=p(Y|X,W)p(W)p(Y|X,W)p(W)dW

上式の分母の項目は全てのデータを用いているため計算コストが高く、深層学習で有効なミニバッチ処理などが適用できません。そこでミニバッチ処理を適用可能な形に変更していきます。
WがハイパーパラメータΘから導出されるような事前分布q(W|Θ)を考えます。

q(W|Θ)=argminΘD(q(W|Θ),p(W|X,Y))

上の式はパラメータΘから重みパラメータを生成する分布q(W|Θ)と学習データXと学習ラベルYから重みパラメータWが生成される分布p(W|X,Y)の距離が小さくなるようなパラメータΘを導出する意味になります。
書き換えると

D(q(W|Θ),p(W|X,Y))=KL(q(W|Θ)||p(W|X,Y))

分布間のカルバック・ライブラー・ダイバージェンスを小さくすることになります。つまり分布q(W|Θ)と分布p(W|X,Y)がどれだけ似ているかを表しています。この距離が最小化されると分布同士が近い性質になっていることになります。

ではこのカルバック・ライブラー・ダイバージェンスを展開して形を変えます。

KL(q(W|Θ)||p(W|X,Y))=wq(W|Θ)logq(W|Θ)p(W|X,Y) =wq(W|Θ)logp(W|X,Y)q(W|Θ) 

ここでp(W|X,Y)だけに着目し式展開して整理します。
ベイズの定理条件付き確率の定義を利用します。

まずベイズの定理を利用

p(W|X,Y)=p(X,Y|W)p(W)p(X,Y) =p(X,Y|W)p(W)p(X,Y)p(W)p(W) 

条件付き確率の定義を利用

=p(X,Y,W)p(W)p(W)p(X,Y)p(W)p(W) =p(X,Y,W)p(W)p(X,Y)1p(W) =p(X,Y,W)p(X,Y) =p(X,Y,W)p(X,Y)p(X,W)p(X,W) 

条件付き確率の定義を利用

=p(Y|X,W)p(X,W)p(X,Y) 

XWが独立、XYが独立と仮定

=p(Y|X,W)p(X)p(W)p(X)p(Y) =p(Y|X,W)p(W)p(Y)

ここで求めた式を用いてカルバック・ライブラー・ダイバージェンスに関する式を書き直します。対数を逆数にしたのでΘを最大化するように式を変形します。p(Y)Wに依存しないため無視します。

KL(q(W|Θ)||p(W|X,Y))=argmaxΘwq(W|Θ)logp(Y|X,W)p(W)q(W|Θ)dW 

上式を分解します。

argmaxΘwq(W|Θ)logp(Y|X,W)dWwq(W|Θ)logp(W)q(W|Θ)dW 
=argmaxΘwq(W|Θ)logp(Y|X,W)dWKL(q(W|Θ)||p(W))

上式をEvidence Lower Bound(略称: ELBO)と呼びます。この式によってパラメータを最適化します。

左の項がデータに対して最適化する項です。
wq(W|Θ)logp(Y|X,W)dW

右の項がデータに対して正則化する項です。

KL(q(W|Θ)||p(W))

ここで重要なのはベイズの式によって事前分布を与えられること、深層学習においてミニバッチが適用可能な形にするためELBOを用いることになります。

ベイズとDropoutの近似について

Dropoutは下記の図のように考えてもらうとネットワークにノイズを付与していることになります。
ベイズ的に考えるとノイズを加えるような事前分布を考慮していることになります。

重みWは下記のような式になります。

wij=θijϵij,ϵijN(ϵij|1,α)

このノイズを考慮したパラメータの最適化は下記のようになります。stochgradは確率的勾配法を表しています。

stochgradθlogp(Y|X,W)

=stochgradθlogp(Y|X,Θϵ^)

ϵ^N(ϵ|1,αI)

ベイズによって重みを導出する事前分布をノイズを含むような正規分布として深層学習のモデルを下記のような式で考えると

stochgradθN(W|Θ,αΘ2)logp(Y|X,W)dW

N(W|Θ,αΘ2)=N(wij|θij,αθij2)

ここでstochgradθlogp(Y|X,Θϵ^)と上の式が等価であることが表せれば、ドロップアウトはノイズを加える正規分布と等価として扱えることになります。

これを導出する前にreparameterization-trickについて説明します。
現在は重みWが分布により導出されている形になります。

これだと重みWが決定的にならず誤差逆伝搬ができません。そこで仲介するようなパラメータを導入してそのパラメータが分布から生成されると仮定してパラメータWは決定的にして誤差逆伝搬を可能にすることをreparameterization-trickと言います。

重みWが得られる分布をreparameterization-trickによってDropoutによるノイズ付与している正規分布に書き換えています。

stochgradθN(W|Θ,αΘ2)logp(Y|X,W)dW

reparameterization-trickを使用

=stochgradθN(ϵ|1,α)logp(Y|X,Θϵ)dϵ

=stochgradθlogp(Y|X,Θϵ^)

ϵ^N(ϵ|1,αI)

これで最初に定義したDropoutによる効果とベイズで定義した式が等価であることが示せました。
ベイズで定義した式の最適化にはELBOを使用しています。
今回定義した式がELBOと等価かどうかも見てみます。

N(W|Θ,αΘ2)logp(Y|X,W)dW

ここでノイズの項を置き換えます。

q(W|Θ,α)=N(W|Θ,αΘ2)=ijN(wij|θij,αθij2)

置き換えるとELBOの右のデータ項になります。左の正則化項はαにのみ依存するようなので今回導出するパラメータとは無関係のため無視できます。参考: Dropout as Bayesian procedure

q(W|Θ,α)logp(Y|X,W)dW

これでDrooutとベイズが近似可能であり、パラメータの更新のためのELBOも適用可能なことが分かりました。

Dropoutのベイズ近似を利用した不確実性を考慮した時系列データ予測

Deep and Confident Prediction for Time Series at Uberという論文で時系列データに適用した例があるのでそこで利用されている手法を用いて不確実性を考慮した時系列データ予測を行います。

この論文ではMCdropoutという手法を用いて用いてモデルの不確実性を表しています。
アルゴリズムはシンプルなものになっています。

  • 1: Dropoutの系列を用意。[0.1, 0.2, 0.3..]など
  • 2: Dropoutの系列ごとにモデルを学習
  • 3: 学習した各モデルの予測値の平均を導出
  • 4: 学習した各モデルの予測値と真の値の誤差の平均を導出
  • 5: 3を正規分布の平均に、4で導出した誤差を正規分布の分散に適用

時系列データの取得、前処理、学習のコードはこのブログのコードを使用します。

学習モデルの定義部分です。モデルにdropoutの比率を設定できるようにしています。

def create_model(input_dim,
                 time_steps,
                 latent_dim,
                 # データが一つしかないので1しか選べない
                 batch_size=1,
                 model_option='lstm',
                 optimizer='adam',
                 drop_out=0.5,
                ):
    x = Input(shape=(time_steps, input_dim,))

    if model_option == 'lstm':
        h = LSTM(latent_dim, stateful=False, return_sequences=True, dropout=drop_out)(x)
    elif model_option == 'gru':
        h = GRU(latent_dim, stateful=False, return_sequences=True, dropout=drop_out)(x)

    out = Dense(input_dim)(h)

    model = Model(x, out)
    model.summary()

    model.compile(optimizer=optimizer, loss='mean_squared_error', metrics=['mse'])

    return model

Dropoutのリストを作成して各モデルに適用し、予測のリストと実測と予測の誤差の2乗平均のリストを作成しています。

drop_out_list = [0.01, 0.02, 0.03, 0.04]
predict_list = []
var_list = []

for drop_out in drop_out_list:
    model = create_model(input_dim, 
                         time_steps=time_steps,
                         latent_dim=120,
                         model_option='lstm',
                         drop_out=drop_out,
                        )
    model.fit(x, x, epochs=200)
    window = time_steps
    x_test, scaler = prepare_data(X_smooth_test, time_steps)
    predict_test, x_scale_train = predict_model_show_graph(X_test_day_smooth[window + 1:], x_test, scaler, model)
    predict_list.append(predict_test)
    var_list.append(np.average(np.subtract(x_test, predict_test) ** 2))

全体のコードは下記になります。

https://github.com/SnowMasaya/time_series_anomaly_detect_hands_on/blob/master/advanced/time_series_anomaly_detect_keras_uncertainly.ipynb

評価指標

ここで計測すべき指標は下記になります。

  • RMSE: 正常な時系列を正確に再現できているかを表す指標です。低いほど性能が良いことを表します。
  • Variance(分散): 予測波形のブレ幅を表します。小さい方がベターですが一概には言えなく変化が大きい部分では予測が難しくなるのでブレ幅が大きくなります。低いほど一般的な性能が良いことを表します。
  • Coverage: 予測波形と分散が実波形をどの程度カバーしているかを表します。高いほど性能が良いことを表します。

下記の図はの際に予測値が取りうる範囲を黄色と緑色で示しています。青が実測値を示しています。

Dropout 1,2,3,4%

Dropoutが10,20,30,40%

今回はDropoutが1,2,3,4%のノイズが少ない事前分布を想定した場合と10,20,30,40%のノイズが中程度の事前分布を比較しました。

下記の表は先ほど示した計測指標のテストデータに対する結果を記述しています。Dropoutを大きくするとRMSEが上昇しますがカバレッジは向上しています。ノイズを多く導入することによりデータに対するカバー率が上昇するのは直感的な感覚に近い現象になっています。

Dropout リスト RMSE Variance Coverage
1,2,3,4% 1.4165 10.1799 0.9767
10,20,30,40% 1.5987 9.5052 1.0

最後に

弊社ではソフトウェアと機械学習を用いて不確実な未来を予測できる方を絶賛採用中なので是非、弊社へ応募してください。

参考

https://www.coursera.org/learn/bayesian-methods-in-machine-learning

https://stats.stackexchange.com/questions/199605/how-does-the-reparameterization-trick-for-vaes-work-and-why-is-it-important