VAE (Variational Autoencoder, 変分オートエンコーダ)

1. VAE (Variational Autoencoder, 変分オートエンコーダ)とは [概要]

VAE (Variational AutoEncoder, 変分オートエンコーダ) とは,潜在変数付き確率グラフィカルモデルとして構成されている,オートエンコーダネットワーク構造の深層生成モデルである [Kingma and Welling, 2014].中間のボトルネック層を潜在変数化した「潜在変数付きEncoder-Decoder」であるゆえ,ベイズ的な「解釈性の高い潜在確率変数」も学習できる利点がある.

この記事では,VAEの基礎と学習方法(2~4節),およびその応用について述べる.

VAEは,再パラメータ化トリック(4.3節)というテクニックの導入により, 潜在変数付きのEncoder-Decoder を,ニューラルネットワークとして実現している点が,VAEの一番の長所である.従って,潜在変数も推論できるのに,学習時の計算効率性もよく,しかも他のニューラルネットと同様に同じく「SGD」で学習できる.

画像や音の変換モデルとしてEncoder-Decoderネットワークを学習する場合に,VAEとして設計・学習しすると,中間のボトルネック層部分を,潜在確率変数(正規分布)として,可視化および,低次元埋込み空間化でき,デバッグ性・解釈性がよくなる.

1.1 記事の構成

2節以降は,オリジナルのVAEの提案 [Kingma and Welling, 2014], [Kingma and Welling, 2019] を中心として,以下の構成によりVAEの基本的な仕組みと特徴を説明していく:

  • 2節 VAE の構成
  • 3節 VAE のグラフィカルモデル構造
  • 4節 VAE の学習: AEVB(Auto-Encoding Variational Bayes)
  • 5節 VAE の特徴と発展・応用

VAEの基本モデルについての記事なので,VAEのその後の応用や発展については,3.1節や5.2節などで少し述べている程度であることに注意されたい.

この記事は内容が盛りだくさんである.よって,2節以降の詳細に入る前に,読者のVAE全体への俯瞰度を,先に高めておきたい.そこで,「もう少し詳しめの概要(1.2節)」と,「生成画像の例 (1.3節)」による実例を1節で先に提示することで,VAEの大枠をイメージできるようにしたのち,2節以降の詳細説明に入りたい.

1.2 VAE の概要 [もう少し詳しく]

1.2.1 潜在変数の推論付き自己符号化

VAEは,オートエンコーダのボトルネック部 z を「(多変数)正規分布」と仮定したときに,潜在変数 z と 観測データx の間の写像関数2つを,それぞれニューラルネットの仕組みで学習可能にした「(連続)複数潜在変数付きのグラフィカルモデル」である.変分ベイズ (Variational Bayes)の目的関数を応用して,オートエンコーダの学習を行うゆえに,変分オートエンコーダと名付けられた.

VAEは,画像などの高次元データ群から,データの再構成損失関数に沿った「正規分布の潜在変数空間z」を推論するエンコーダq(z|x)と,その潜在変数から綺麗なサンプルを再構成するデコーダ p(x|z) を,一体化したオートエンコーダとしてend-to-end学習する.

学習後のテスト時は,ユーザーが指定したzの値を入力としてデコーダを順伝搬すると,zの値に対応した生成サンプルxを生成することができる.

この構成により,生成モデルであるデコーダp(x|z)を学習するのと同時に,データの生成もとであるzの低次元空間上に,各サンプルをデータの距離をもととした位置への埋め込みであるエンコーダq(z|x)も学習でき,デバッグ性の高い生成モデルを学習できる.

また,VAEで学習されたzを構成する各次元の潜在変数ziは,互いにもつれほどき(disentanglement)されやすく,個々の変数zが,生成サンプルの「変化軸」として個別に独立して機能しやすくなりやすい特性がある.

のボトルネック部であるzを正規分布としたときに,潜在変数zと観測データxの間の写像関数をニューラルネットとして学習可能な「(連続)複数潜在変数付きのグラフィカルモデル」である.変分ベイズ(Variational Bayes) の目的関数を応用して学習を行うことから,変分オートエンコーダと名付けられた.

VAEは,Auto-Encoding Variational Bayes (AEVB) というアルゴリズムにより学習(もとい潜在変数の推論)を行う (4節).VAEでは,潜在(正規分布)変数も同時に学習(推論)するので,AEVBも「潜在変数あり学習」の1種類である.

AEVBは,潜在変数の最適化と,非潜在変数の学習を繰り返すゆえ,伝統的なEMアルゴリズムに似た学習アルゴリズムでVAEも学習すると「一般化」して同一視・比較ができていると,VAEについて深く理解しやすい.この理解があると,自分で設計したネットワークにも,VAEを活用できやすくなる.

1.2.2 確率モデルなのにSDGで済む

VAEの1番の特徴・長所は「潜在変数付きグラフィカルモデル構造を持っていながら,ニューラルネットで構成してあり,SGD学習できる」点である.これにより,他のニューラルネットワーク構造とも組み合わせたEncoder-Decoder構造にしすい.また,深層生成モデルであるので,過去の複数潜在変数付きグラフィカル生成モデルよりも,スケール化させることが容易である.加えて,従来のグラフィカル生成モデルの発想を持って来やすい.その意味で,VAEを元にした,新たな生成モデルを設計しやすい利点もある.

VAEは,中間ボトルネックに,確率的な正規分布の潜在変数を含んでおり,SGDで一気に学習することはそのままではできない.VAE以前の,かつての潜在ランダム変数付き確率的グラフィカルモデルの場合は,潜在変数の事後分布候補を大量に(ランダム)サンプリングする必要があるので(例:LDA(潜在ディリクレ配分)など),MCMC法など「サンプリング計算コストの高いベイズ推論」が必須であった.

しかしVAEでは,再パラメータ化トリック(reparametrization trick) (4.2節)を導入したことで,end-to-end学習が可能となっている.これにより,VAEでは,バックプロパゲーション(=SGD)だけで,変分ベイズ推論学習が可能とになった.こうして「潜在変数付き」深層生成モデルを学習するハードルがVAEで一気に下がり,パラダイムシフトがおこった.これは,ニューラルネット中にVAEも利用することで,もつれほどきされた低次元な事前分布への,複雑な埋込みEncoderを,容易に学習できるようになったとも,言い換えることができる.

ちなみに同時期に出てきたGAN も生成モデルや変換モデルでよく使われていく.VAEは「潜在変数を予測するEncoderも同時に学習できる」のが,GANと構造を比較した時に,最も異なる点である.

親記事「深層生成モデル」などにも,書いたように,GANとVAEは相互補完的な側面がある技術同士であるので「GANとVAEの融合,良いとこ取り」が,その後盛んになっていく(※ この記事では対象外).

1.2 VAEの動機と生成画像の例

提案者 Kingma氏によるデモサイトでは,VAEの画像生成の潜在変数12個の値を,バーで自分で調整して画像を生成するデモを,ブラウザ上で試すことができる.このデモサイトで実物を触ってもらうとわかるように,VAE開発の動機は「10次元程度の潜在変数を操るだけで,それの潜在変数の成分が混ざった綺麗な画像を生成できる深層生成モデルを開発する」ことにあった.

VAEが学習した2次元多様体からの生成画像
図1. VAEが学習した2次元多様体からの生成画像

例えば,MNISTの数字画像 (図1-a)や,顔画像(図1-b)のように「潜在的な分布 p(z) がデータ中に存在する」と仮定しやすいデータ分布のデータセットからVAEを学習した時に,潜在変数空間がどのように学習されるかを確認してみたい(図1).両方とも,元の高次元データの特徴ベクトルが近いサンプル同士が近くに配置された,中央値 0 のガウス分布による低次元多様体 zを,教師なし学習で獲得できる

MNISTの場合,z を10次元ベクトルとして学習した際に,そのうち2つの潜在変数を可視化したものが (図1-a)である.z1z2がつくる2次元空間上に,(ガウス分布として),0~9の数字画像が埋め込まれており,各数字の中間的な数字画像も生成できるようになっていることがわかる.

また,FARY FACEデータセットのように,データ内に「向き」や「表情」などの変化を含むデータセットからVAEを学習すると,もつれほどき(disentanglement)の効果により,独立した変化が各潜在変数に表出しやすい(図1-b).この潜在変数分離が,教師なしで実施できることは魅力的である.

2. VAE の構成

2.1 問題設定と学習の概要

VAEの学習の目的は,大規模データセット D={x(1),x(2),,x(N)} のデータ分布を模した生成モデルを学習することである.

2.1.1 潜在変数モデルの仮定

従来の潜在変数付きグラフィカルモデルや非線形次元削減でよく用いられてきた「高次元データ群の分布は,低次元多様体z上に埋め込み可能である」という仮定をVAEでも採用する.

元の高次元データセットDの中に潜在的に存在する低次元隠れ変数zを推論(Inference)し,逆にその潜在変数からデータセットの分布に近いデータxを生成することを,VAEの目的とする.

すなわち,データxの背後に,各データサンプルに対応する低次元のシンプルな分布pθ(z)が存在すると仮定する.さらに,潜在変数からデータの生成を行う生成用分布pθ(xz)も存在するとしてグラフィカルモデル構造を設計している(3節).一方,元のデータxには高次元データ(画像など)を用いるので,その経験的分布qD(x)は複雑になりがちである.

2.1.2 VAE の学習の概要

VAEは,生成グラフィカルモデルの変数間の依存関係をニューラルネットで学習する深層潜在変数モデル(Deep Latent-Variable Models, DLVM)を採用している.DLVMであるpθ(x,z)および推論モデルqϕ(zx)を,同時に学習するモデルである.この時,AEVBアルゴリズム(4節)を用いると,SGDを用いて効率的に学習できる.

この節では確率生成モデルとしての学習で構成される確率分布間の関係の大枠を先に述べる.従って,グラフィカルモデルとしての,詳細なサンプルの生成過程は3節にて述べる.

VAE のDeep Latent variable modelsとしての構造

VAEはzからxが生成するDLVM構造である.

VAEのDLVMにおけるxzの関係は,ベイズの法則における以下の3つのzの分布から定義できる:

  • 事前分布:pθ(z)
  • 尤度:pθ(xz)
  • 事後分布:pθ(zx)

DLVMでは,生成モデル全体を表す結合分布pθ(x,z)を,次のように因数分解するグラフィカルモデル構造のベイズ生成モデルとなる(詳細は3節):

(2.1)pθ(x,z)=pθ(xz)pθ(z)

データ点を生成するには,まず事前分布からzをサンプリングし,その後尤度分布からxをサンプルする.構造的には非常にシンプルなモデルである.

対数尤度目的関数の周辺化

生成モデルでは以下のような「データ分布の対数尤度」を用いて分布のパラメータを推定することが標準的である:

(2.2)θ=argmaxθiNlogpθ(x(i))

ここで,式(2.2)中のエビデンス項pθ(x(i))を,zについて周辺化することで周辺尤度として以下のように計算することができる:

pθ(x(i))=pθ(x,z)dz(2.3)=pθ(x(i)z)pθ(z)dz

また潜在変数zも推論したいが,ここではベイズの法則を用いて事後分布を因数分解したものを用いることができる:

pθ(zx)=pθ(xz)pθ(z)pθ(x)

オートエンコーダとしての学習

さて,式(2.2)からVAEの学習を行いたいが,そうすると式(2.3)を毎回の学習ループで推論を行う必要が出てくる.この際に,pθ(z(i)x) をサンプリング法(MCMCなど)を用いて正確(exact)なベイズ推論をしようとすると,データ数Nが大きいほど大量のサンプリングが必要であり,zの候補全てについて周辺化しようにも計算量が多く,取り扱いきれない(intractable)モデルになってしまう.

そこでVAEでは,元のExactな事後分布を用いる代わりに,近似分布 qϕ(zx) を利用した変分ベイズ推論を採用することで,pθ(zx) をTractable なものにする:

(2.4)qϕ(zx)pθ(zx)

そして,このpθ(x(i)z)の事前分布を,K次元の多次元正規分布としてモデル化するのが,VAEの基本的なアイデアである.

zp(z)=N(0,I)(2.5)xzpθ(zx)qϕ(zx)

そして,近似分布の式(2.4)を,エンコーダとして効率的に変分ベイズ推論で計算し,なおかつ生成モデルも学習できるアルゴリズムとして,Auto-Encoding Variational Bayes (AEVB)アルゴリズム(4節)を使用する .

2.2 VAE のネットワーク構造

変分オートエンコーダ (VAE, Variational AutoEncoder)の構造
図2. 変分オートエンコーダ (VAE, Variational AutoEncoder) の構造.

VAEは,低次元ベクトルの潜在変数z(連続変数から構成)を,ボトルネックとして中間に挟む形で,以下の2つのネットワークによりオートエンコーダ構造を成している (図2):

  • エンコーダqϕ(zx)
    • データxから潜在変数zの確率分布を推論するEncoder
    • ベイズグラフィカルモデル的には「事後分布の近似」である (3節).
    • 具体的には,zをサンプリングするための,(1)平均ベクトルμと(2)標準偏差ベクトルσの2つを結合したベクトルを推定.
    • 学習の際にオートエンコーダを構成する補助役.
      • データの生成を行うテスト時には使用しないが,実データから潜在変数zの空間に射影することも可能 (テスト時にも便利に使用できる).
  • デコーダpθ(xz)
    • 潜在変数 z を入力(条件付き確率変数)として,データ x を生成 (再構成)する,条件付きDeocder.
    • ベイズグラフィカルモデル的には「zの尤度」.

z 中の各確率変数の事前分布には,[0 ~ 1] の値を取る正規分布を仮定したい.その正規分布からサンプリングされた値zをデコーダに入力すると,学習に用いたデータセットの分布に基づいた,zに対応するランダム変数bmを生成する.

また,潜在変数zを推論するエンコーダqϕ(zx)(条件付き近似分布)も,ニューラルネットワーク関数化されている(その学習原理については3.2節).

中間部の潜在表現zを正規分布からサンプリングする部分は,本来は微分不可能であり,2個のネットワークは同時に学習できない.しかし,VAEでは 再パラメータ化トリック(4.2節)により,ボトルネック部がランダム正規分布のように振る舞いながらもzを決定論的変数に変更する再パラメータ化を行うことで,2つのネットワークを一括にEnd-to-Endで学習することができる (※ VAEを実現したキーアイデア).

VAEのあとにGANが提案されて以降の数年は,これら2つが深層生成モデルの中心選手として,双方とも発展していた.「大量の画像データを用いて,高次元データである画像の生成モデルを学習できる」という共通点が,それまでに存在しなかった仕組みである.

5.2節や,親記事(深層生成モデル (Deep Generative Model)でも述べるように,GANとVAEは相互補完的な関係も持っており,片方の弱点をもう片方だけが実現できる長所がある.よって,同時に両者を使用するモデルも多く提案されている.

3. VAE のグラフィカルモデル構造

3.1 確率的モデルとして

VAEのグラフィカルモデル構造
図3. VAEのグラフィカルモデル構造

VAEは図3で示されるグラフィカルモデルに沿って,正規分布からサンプリングしたzを入力として受け付けるデコーダネットワークを用いて,データ入力にそっくりなxを生成できる深層生成モデルである.

VAEではデコーダpθ(xz)をニューラルネットワークで実装しており,このpθの確率分布により,データxと潜在変数ベクトルzの間を写像する.

テスト時には,学習済みのパラメータ θ が得られており,サンプルxを生成するためには以下の手順をもちいる:

処理手順

  • 事前分布pθ(z)からzをサンプリング.
  • 条件付き分布 pθ(xz)に相当するデコーダネットワークからxを生成する.

また,変分ベイズ推定で用いる推論用の近似分布qϕ(zx)もエンコーダとして実装する.ϕはこの近似エンコーダの(変分)パラメータである.

VAEは,図2のように,確率分布中間変数zをボトルネックとするオートエンコーダ構造でもある.2.2節で述べたように,zは事前分布がN(0,I) (原点中心の等方性正規分布)であり,学習を通じて,その事前正規分布上の点zに各学習データが埋め込まれていく.

3.2 もつれほどき (disentanglement)

VAEの学習を通じて得られる,潜在変数間のもつれほどき(disentanglement)について,簡単にだけ触れておきたい(原理や最近の動向についてまでは,この記事では述べない).

元論文での,Fray Faceデータセットで学習した多様体の生成画像可視化図のように(図1-b),VAEのzの各変数z1,z2,,zDは,お互いがもつれほどきされた(disentangled)独立性の高い表現になりやすい.図1-bの,縦方向z1は「顔の表情変化」におおよそ対応しており,横方向z2は「顔の左右向き(姿勢)変化」におおよそ対応している.従って,各変数の値を調節して生成することで,「独立した潜在成分の混合具合をコントロールした画像生成が行いやすい」のが VAEの利点の1つともなる.

例えば,古典的な線形の潜在変数モデルのPCAを,同じデータセットから学習させた場合,潜在変数には正規直行基底を仮定しているゆえ,正規直行基底レベルまでしか,各変数間のもつれほどきは起こらない.しかしVAEの場合は,非線型かつ深い(階層的な)潜在表現を,教師なし学習(自己符号化)を通して獲得できる.

β-VAEという手法の登場以降,潜在変数のもつれほどき具合を,損失関数間の重み付けパラメータβにより明示的にコントロールを行うようにもなってきている.また関連する話として,2つのEncoderを用意して,もつれほどきされた成分同士に明示的に「個別の潜在変数 + エンコーダ」へと分離する研究が,画像生成や画像変換界隈で盛んである (例「Pose v.s Appearance」のもつれほどき,「顔のIdentityに関わる成分 v.s. 顔のIdentityは除去した成分」 のもつれほどきなど).

4. VAE の学習: AEVB

VAEの学習アルゴリズムは,Auto-Encoding Variational Bayes (AEVB) [Kingma and Welling, 2014] と呼ばれる.VAEの学習では,変分ベイズ推定 (Variational Bayesian Inference)による潜在変数の推定も同時に行われる.また,そのベイズ推定の過程がニューラルネットワーク化されたSGD学習になっているので,旧来の潜在変数グラフィカルモデルよりもスケールしやすい.

AEVBによる学習の目的関数は,周辺尤度の対数 logpθ() を変分ベイズ推定で近似最適化するときに用いる変分下界(variational lower bound)に相当するEvidence Lower BOund(ELBO, 証拠下界)である (4.1節).

ELBOの最大化を用いると,近似解である周辺尤度の最大化を通して,VAEの近似エンコーダとデコーダのパラメータを同時に学習できる(4.2節).しかし,真ん中に正規分布であるp(z)が挟まっているままだと,エンコーダからデコーダまでEnd-to-EndにSGDで逆伝播することができない.そこで,AEVBでは再パラメータ化トリックを用いて,zを決定論変数に変えることにより,End-to-End学習を可能としている(4.3節)

4.1 損失関数の構成 (対数尤度から導出)

3.2 節で見たように,VAEは周辺尤度 pθ(x) の最大化による学習を通じて,デコーダのパラメータ θ,およびエンコーダの変分パラメータ ϕ を交互に同時学習していく.

以下の式は,VAEの目的関数「周辺尤度の対数 logpθ(x)」を,2項に分解したものである:

※この式の変形方法の詳細は省略する.参考文献・参考書籍等を参考のこと

(4.1)logpθ(x)=Lθ,ϕ(x)ELBO+DKL(qϕ(zx)||pθ(zx))KLダイバージェンス

この対数尤度の下界(ELBO)を,SGDの代理目的関数として使用することで,VAEを学習する.これらの2項について,4.1.1と4.1.2で意味をそれぞれ見ていきたい.

4.1.1 KLダイバージェンス項

式(4.1)の右辺第2項は,真の分布pθ(zx)と近似分布qϕ(zx)の間の,KLダイバージェンスである.

このKLダイバージェンスは,以下のように非負の値を取り,値が0に近くなるほど近似分布は真の分布に近づく:

(4.2)DKL(qϕ(zx)||pθ(zx))0

4.1.2 ELBO項

式(4.1)の右辺第1項は,変分下界であるEvidence Lower Bound (ELBO)である:

(4.3)L(x)θ,ϕ=Eqϕ(zx)[logpθ(x,z)logqϕ(zx)]

KLダイバージェンスの非負性から,式(4.3)中に式(4.1)を適用することで,ELBOは対数尤度の下界に相当するとわかる:

(4.4)Lθ,ϕ(x)=logpθ(x)DKL(qϕ(zx)||pθ(zx))0

ここで,KLダイバージェンス DKL(qϕ(zx)||pθ(zx)) は,以下の2つの距離計量を,同時に定めていることがわかる

  1. 真の事後分布からの,近似事後分布へのKLダイバージェンス.
  2. ELBOと対数尤度のギャップ (下界のtightness).KLダイバージェンスに関して近似分布が真の分布を表しているほど,このギャップは小さい値となる.

以上から,VAEの目的関数は「ELBOの最大化」となっており,また,それは「周辺尤度の下界の最大化」に相当していることが導出できた

※ 最大化を行うので,SGDではなく Stochastic Gradient Ascentを行う点に注意.

次の4.2節では,ELBOを用いてSGDによりVAEを最適化する「SGVD」について,述べる.

4.2 SGVI: SGDを通したELBO最適化

4.1節の冒頭でも述べたように,式(4.3)のELBO L(x,θ,ϕ) (の最大化)の利点は,SGDにより,パラメータθ,およびエンコーダの変分パラメータ ϕ を,同時に学習できる点にある.

そこでVAEの学習であるAEVBには,バッチごとにSGDでELBOを損失関数として変分ベイズ推定を行うSGVI (Stochastic Gradient-based Variational Inference) を用いる.

以下の,各サンプルxにおけるELBOの,データセット D 全体における和を用いてSGDによる最適化を行う:

(4.5)Lθ,ϕ(D)=xDLθ,ϕ(x)

4.3 再パラメータ化トリック

再パラメータ化トリック(Reparametrization Trick)
図4. 再パラメータ化トリック

各近似事後分布のqϕ(z|x)を用いてzの正規分布のパラメータ(平均と標準偏差)を推定した際に,そのパラメータからzをサンプリングする必要がある.しかし,サンプリング処理は微分不可能であるので,このままだとVAE全体にELBOからの損失をバックプロパゲーションすることはできない.

そこで [Kingma and Welling, 2014], [Rezende et al., 2014] では,再パラメータ化トリック(Reparametrization Trick)が提案された(図4).

中間層zの正規分布のサンプリングを,外の別の確率変数ϵ側へ逃した以下の表現に再パラメータ化することで,zを確率からのサンプリングから(図4-a),決定論的変数の推定(図4-b)に変更した:

(4.6)ϵN(0,I)(4.7)z=μ+σϵ

これらの再パラメータ化(4.6),(4.7)により,再パラメータ化された勾配を用いてzの正規分布もつながり,VAE全体に出力の損失の勾配を逆伝播させて,一括にエンコーダとデコーダを学習することが可能となった(図4-b).確率的ノイズ変数ϵは,順伝搬時のみ別途サンプリングし,サンプリングしたϵp(ϵ)zで確率変数的な値を表現する役割を担当できる.

こうして,グラフィカルモデルとしてのVAEの挙動がzが確率変数である場合(図4-a)と等価なまま,再パラメータ化のおかげで,SGDのみでエンコーダとデコーダをend-to-end学習できるようになった.(ただしVAEは,完全な確率モデルではないことに注意)

5. VAE の特徴と発展・応用

2~4節までは,オリジナルのVAEの仕組みを紹介してきた.最後にこの5節でVAEの特徴を整理し(5.1節),その発展・応用にもさわりだけ少し触れておきたい(5.2節).

5.1 VAE の特徴の整理

ここまでの話をまとめつつ,VAEの特徴を長所・短所に分けて,以下にまとめる:

長所
  • 旧来の潜在変数付きグラフィカル生成モデルと異なり,SGDを用いたバッチ学習が可能なので,大量のデータから学習できスケールしやすい.
  • 生成モデルとしてシンプルなグラフィカルモデルを使用しており取り扱いやすい.
  • q(z|x)の推論が可能なので,色々なタスクにおいてこの表現学習の仕組みを応用しやすい.
短所
  • 伝統的な尤度最大化でありその下界を用いること自体は悪くはない.ただ,自己回帰モデルやGANなど他の深層生成モデルと比べると,目的関数が下界なので,甘い評価関数による最適化である.
  • 分布の近似および変数のサンプリングを行うので,シャープなサンプルを生成できる(決定的モデルの)GANと比べると,生成サンプルはボケでがちであり,サンプルの質的に劣る(※ しかし最近はVQ-VAEなど,綺麗な画像が生成できるVAEも登場している)

5.2 VAE の発展・応用

(教師なしで)潜在空間付き生成モデルを学習できるというVAEの性質上, シーケンス形式のデータからそのデータ群の性質をとらえたい対象として,近年VAEは音響データへの応用が多く見うけられる.

※ 自己回帰生成モデルにおいても,Wavenetの登場以降は『音響データ向けの応用』が盛んである

「KingmaとWellingによる解説 [Kingma and Welling, 2019] 」でも触れられているように,VAEとGANは相互補完的な関係にある.従ってVAE-GAN [Larsen et al., 2016]のように,VAEのDecoderとGANのGeneratorを同一のものとみなして2者を組み合わせると,お互いの短所を補った良いモデルを作りやすい.

また,他によく研究されている応用モデルとして,クラスラベルで条件付けしたVAEである Conditional VAE (CVAE) [Sohn et al., 2015] が挙げられる.CVAEでは,クラスラベル付きの他クラスデータセットを学習することで,クラスラベルに条件付けされたEncoderとGeneratorを学習する.多クラスラベルデータセットから,クラスごとの分布の違いを条件的確率で捉えたVAEを学習できる.よって,多クラス識別問題向けの画像データセットからも,CVAEを教師あり学習できるようになった.

6. まとめ

この記事では,変分オートエンコーダ(VAE)の,KingmaとWellingによる元祖の提案について,その構造と学習方法についてまとめた.VAEは,潜在変数付き深層生成モデルであり,変分ベイズ推定を利用して学習するオートエンコーダである.正規分布を事前確率とする潜在変数zに,もつれほどきされた低次元潜在表現を抽出しやすい.よって,各(確率)潜在変数 zi が,お互い独立した意味のある変化方向になりやすい (画像生成の場合,それは姿勢,表情,照明変化など).

VAEでは,ELBOの最大化により,変分ベイズ学習であるAEVBを行う(4章).End-to-End学習することにより,中間層zが多次元正規分布をサンプリングするので,そのままだとEnd-to-Endに逆伝播できない.そこで,再パラメータ化トリックを導入して,平均と標準偏差はサンプリングしないで済むようにした.こうしてVAEはEnd-to-End学習が可能なネットワークとなり,簡単に学習しやすいのに加えて,潜在分布も Explicitな正規分布として学習できる,使い勝手の良い深層生成モデルとなった.

最後の,5節では,VAEの特徴をまとめ,VAEの発展と応用も少し述べた.

参考書籍

References

  • [Kingma and Welling, 2014] Auto-encoding variational bayes. In ICLR, 2014
  • [Kingma and Welling, 2019] D. P. Kingma and M. Welling. (2019). An introduction to variational autoencoders. Foundations and Trends® in Machine Learning, 12(4), 307-392.
  • [Larsen et al., 2016] A. B. L. Larsen, S. K. Sønderby, H. Larochelle, and O. Winther. Autoencoding beyond pixels using a learned similarity metric. In ICML, 2016.
  • [Rezende 2016] Rezende, D. J., S. Mohamed, and D. Wierstra. “Stochastic back- propagation and approximate inference in deep generative models”. In ICLR 2014
  • [Sohn et al., 2015] K. Sohn, H. Lee, and X. Yan. Learning structured output representation using deep conditional generative models. In, NIPS 2015.
  • [Yan 2016] Xinchen Yan, Jimei Yang, Kihyuk Sohn, and Honglak Lee. Attribute2image: Conditional image generation from visual attributes. In ECCV, 2016.

参照外部リンク