変分オートエンコーダー(英: Variational Auto-Encoder; VAE)はオートエンコーディング変分ベイズアルゴリズムに基づいて学習される確率項つきオートエンコーダ型ニューラルネットワークである。
ニューラルネットワークを用いた生成モデルの一種であり、深層潜在変数モデルの一種でもある。
オートエンコーディング変分ベイズアルゴリズムの概要
[編集]
オートエンコーディング変分ベイズアルゴリズム(英: Auto-Encoding Variational Bayes algorithm; AEVB)は勾配推定値を用いた有向潜在変数モデルと推論モデルの同時最適化アルゴリズムである。
AEVBでは有向潜在変数モデル
を推論モデル
の導入による変分下界
最大化により最適化する。一般に変分下界の勾配
は intractable であるが、AEVBではこれをモンテカルロ法 (
) を用いた勾配の不偏推定量
で置き換え、確率的勾配降下法によりパラメータを最適化する。このとき
の勾配推定・伝播に関する問題を reparameterization trick で解決する。
標本
が各i=1,...,Nに対し、以下で生成されると仮定する#原論文:2.1節:
- まず潜在変数z(i)が何らかの確率密度関数
に従って選ばれ、
- x(i)がz(i)に依存した何らかの確率密度関数
に従って選ばれる。
ここでθは何らかのパラメーターであり、θの真の値θ*は未知である。また
、
に従って値を選ぶのは計算量的に容易であるものとする。
一方、潜在変数の事後分布
は容易には計算できず、(容易に計算できる)確率密度関数
により、近似する事を考える(近似事後分布)#原論文:2.1節。ここで
はパラメーターである。
近似事後分布を用いると周辺対数尤度
は次のように変形できる:
![{\displaystyle \log p_{\theta }(\mathbf {x} )=\mathbb {E} _{q_{\phi }(\mathbf {z} |\mathbf {x} )}\left[\log {\frac {p_{\theta }(\mathbf {x} ,\mathbf {z} )}{q_{\phi }(\mathbf {z} |\mathbf {x} )}}\right]+\mathbb {E} _{q_{\phi }(\mathbf {z} |\mathbf {x} )}\left[\log {\frac {q_{\phi }(\mathbf {z} |\mathbf {x} )}{p_{\theta }(\mathbf {z} |\mathbf {x} )}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4d7d36f29ef7d11b2f0aaa1c08ca024ae083f1ed)
右辺の第1項は変分下界
あるいはELBOと呼ばれ、第2項は事後分布-近似事後分布間のカルバック・ライブラー情報量に相当する。すなわち次の式が成立している:

ここで
(ギブスの不等式)より、変分下界最大化は次の2つの意味を持つ:
- 近似事後分布の近似精度最大化(
)
- 生成モデルの尤度最大化(
)
ゆえに変分下界最大化は最尤推定の代替として利用できる。
標本
に対する変分下界を最大化する
を目標とする。すなわち次の式で表される:
![{\displaystyle {\underset {\theta ,\phi }{\operatorname {argmax} }}\ \mathbb {E} _{X}[{\mathcal {L}}_{\theta ,\phi }(X)]={\underset {\theta ,\phi }{\operatorname {argmax} }}\sum _{x\in X}{\mathcal {L}}_{\theta ,\phi }(\mathbf {x} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4e9cf8d721de7067901ffba3106ed09859e12e7b)
変分下界は一般には計算が簡単ではない。そこで
が適切な仮定を満たすという条件下で変分下界の推定量を導入する#原論文:2.3節。標本
に対し確率勾配法を用いてSGVB推定量を極大化しモデルの最適化をおこなう#原論文:2.3節。
本章で想定しているセッティングにおいて、既知の手法の有用性は限定的である#原論文:2.1節:
- 最尤法は本章のセッティングでは
が容易に計算できるケースでないと使えない。
- EMアルゴリズムは
の計算が容易であるケースでないと使えない。
- 変分ベイズ法は
が平均場近似できる場合にしか使えない。
- モンテカルロEMアルゴリズムは実行速度が遅い為大きなデータ集合に対しては使えない。
例えば
がニューラルネットワークにより定義されているケースでは、上述した既知の手法は使えないが、本手法であれば適用できる。後述する変分オートエンコーダーはまさにこのケースであり、
をニューラルネットワークにより定義している。
この最適化により以下の事ができるようになる:
- 見つけたθを使う事で
、
に従う確率変数z、xを生成する生成モデルを作成
により
を推定
変分オートエンコーダーとは、オートエンコーディング変分ベイズアルゴリズムを使って学習するニューラルネットワーク(原論文では1層もしくは2層のパーセプトロン#原論文:Appendix C)ベースの生成モデルである。
変分オートエンコーダーでは、潜在変数zが従う確率密度関数
が標準正規分布
...(D1)
に従っており#原論文:Appendix B、xの従う条件つき確率密度関数
が
、ここで
...(D2)
という形であるものとする#原論文:Appendix C.2。上で
はパラメーターθを持つニューラルネットワークである。
さらに事後分布
を近似する条件つき確率密度関数
として
、ここで
…(E1)
という形のものを考える#原論文:Appendix C.2。上で
はパラメーター
を持つニューラルネットワークである。
zの次元はxの次元より短く取る。これは
を用いる事で、データxをもっと短いデータzに「圧縮」し、
を用いる事でzからxを「復元」できる事を意味する(ただし実際には
や
の後に正規乱数を取る操作があるので、「圧縮」したデータを「復元」しても元に戻らない)。このため
符号理論との類推から、
をエンコーダー、
をデコーダーと呼ぶ。
変分オートエンコーダーの学習アルゴリズムは与えられたデータ集合
に対し、以上のような状況下でオートエンコーディング変分ベイズアルゴリズムを用いる事で、2つのニューラルネットワーク
、
のパラメーターθ、
を決定するものである。
一方、変分オートエンコーダーの生成アルゴリズムでは、まずは(D1)式のように標準正規分布に従いzを生成し、生成したzと学習済みのθを使って(D2)式のようにxを生成する。
オートエンコーディング変分ベイズアルゴリズムの詳細
[編集]
変分下界は一般には計算が簡単ではない。ゆえに変分下界の推定量であるSGVB推定量(Stochastic Gradient Variational Bayes estimator、確率的勾配変分ベイズ推定量)を導入する#原論文:2.3節。
SGVB推定量を導入する為、何らかの(容易に計算可能な)可微分関数と(容易にサンプルを抽出できる)確率分布
を用いて
、ここで
...(P1)
とする事で確率密度関数
に従ったサンプルを抽出できる事を仮定する#原論文:2.3節。
例えばVAEの場合は(E1)より
、
...(P2)
としてこの仮定を満たしている。ここで「
」は成分毎の積である。
後でSGVB推定量を定義する際に仮定(P1)を使う事で、本来は確率分布
で定義する部分を可微分で確定的な関数gに置き換える事でSGVB推定量の可微分性を保証する。これによりSGVB推定量を微分して勾配法により
の最適解を求める事ができるようになる。原論文ではこのように確率分布を可微分な確定的関数に置き換えるテクニックをreparameterization trickと呼んでいる#原論文:2.4節。
簡単な計算により変分下界は
![{\displaystyle {\mathcal {L}}_{\theta ,\phi }(\mathbf {x} )=\mathbb {E} _{q_{\phi }(\mathbf {z} |\mathbf {x} )}[\log p_{\theta }(\mathbf {x} |\mathbf {z} ))]-\mathrm {KL} (q_{\phi }(\mathbf {z} |\mathbf {x} )\|p(\mathbf {z} ))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cf961047d4d78e43db528363abcd465728dd1c37)
と書き換えられる事が示せる(ここで
は期待値である)ので、仮定(P1)を用いる事で変分下界を推定するSGVB推定量を
...(L1)
により定義する#原論文:2.3節。ここで
(
)は
から独立に抽出した乱数であり、Lはハイパーパラメーターである。
SGVB推定量を計算するにはカルバック・ライブラー情報量
を計算できる必要がある。原論文ではこの値が計算できないときの為の推定量も提案しているが#原論文:2.3節、本項では割愛する。
オートエンコーディング変分ベイズアルゴリズムは確率的勾配降下法によりSGVB推定量を極大化するθ、
を求めるものである#原論文:2.3節 Algorithm 1。以下でL、Mはハイパーパラメーターである。
- 標本
を入力として受け取る。
- θ、
を初期化する。
- θ、
が事前に定められた収束条件を満たすまで以下を繰り返す
- XのサイズMの部分集合X'をランダムに選ぶ
- 各
に対し
を
に従って選ぶ。
を使ってθ、
を更新
- θ、
を出力
すでに述べたように、変分オートエンコーダーの学習アルゴリズムは、
、
、
からのサンプリングが(D1)、(D2)、(E1)に従ってできるケースにおいてオートエンコーディング変分ベイズアルゴリズムを実行するというものである。
従って変分オートエンコーダーの学習アルゴリズムを書きくだす上で必要となる作業は、(D1)、(D2)、(E1)に従っているケースにおいてオートエンコーディング変分ベイズアルゴリズムにおけるSGVB推定量が具体的にどのような形になるのかを調べるだけである。
本節では変分オートエンコーダーのケースにおいてSGVB推定量
...(L1、再掲)
の具体的な形を求める。
(P2)、(E1)、(D2)より、
、
とすると、
が正規分布
の確率密度関数であることから、
である。ここでKはxのデータ長であり、xk、μ(l)D,k、σ(l)D,kはそれぞれx、μ(l)D、σ(l)Dの第k成分である。
一方、(L1)の第2項を具体的に計算すると以下のようになる#原論文:Appendix D:

ここでJはzのデータ長であり、μE,j、σE,jはそれぞれμE、σEの第j成分である。
まとめると、
...(L2)
ここで、


以上の結果から、変分オートエンコーダーは以下のようになる:
学習:
- オートエンコーディング変分ベイズアルゴリズムを実行。ただし
とし、
は(L2)のものを使う。
生成:
- 学習済みの
を入力として受けとる
に従ってzを選ぶ
を計算する。
に従ってxを選び、xを出力する。