CCCMKホールディングス TECH Labの Tech Blog

TECH Labスタッフによる格闘記録やマーケティング界隈についての記事など

LDAにおけるモデル精度と平坦性について

こんにちは、CCCMKHDテックラボの佐藤(智)です。 久しぶりの投稿です!

LDA の論文「Rethinking Collapsed Variational Bayes Inference for LDA *1 」を読んで、Collapsed variational Bayes Inference for LDA とその近似について考えてみましたので、 備忘もかねて記事にしておきたいと思います。

LDAとは、Latent Dirichlet Allocationの略で、日本語では「潜在的ディリクレ配分法」と呼ばれています。 LDAのアルゴリズムにはいくつかありますが、 今回は、論文*1における、以下の 3種類について考えたいと思います。

  • VB: 2003年 Blei らによって提案された(オリジナルの) LDA *2
  • CVB: 周辺化*3 した VB の  2次までのテイラー展開による近似 *4
  • CVB0: 周辺化した VB の  0次までのテイラー展開による近似
モチベーション

今回の記事執筆のモチベーションは、佐藤一誠氏のLDAに関する著書*5における、 CVB のテイラー展開による近似は CVB0 の近似よりも正確であるにもかかわらず、 CVB0 が CVB より近似精度*6が高くなるという、 テイラー展開の理論とは逆行するような(実験的な)結果の理由を知りたい、ということにあります。

このモチベーションついては、以前のブログの最後のほうでも少しご紹介した内容になります。 本ブログでは、この理由ついて KL-divergenceの拡張である  \alpha-divergence ( \alpha \in \mathbb{R}) の観点 *7 から考えてみたいと思います。 techblog.cccmk.co.jp

テイラー展開による近似について(上記ブログ記事の補足)

話を簡単にするために、 周辺化したVBを変数  x の関数  f(x) *8とおくと、 CVB は、点  a におけるテイラー展開の  2次近似であり、

 f(a)+f'(a)(x-a)+(1/2) \: f''(a)(x-a)^{2}

の形で表されます。 ただし  a f'(a)=0 を満たす点となります。 そして、CVB0 は、点  a におけるテイラー展開の  0次近似であり、

 f(a)

となります*9。 ここで  a x に十分近い点を考えています。 このとき、テーラー展開の一般論から考えると、 CVB は CVB0 と比べて、より近似精度が高いことが想定されます。

確率分布空間について

機械学習において、損失関数は、 真の値と推定値の間の距離(のようなもの)を表す指標として使われます。 今回考えている 3つのLDAについては、データの集合を、確率分布空間

 S_{n} = \{ (p_1, \ldots, p_n) \mid \sum_i p_i = 1, p_i >0 \}

( n \geq 2)の点の集合と考えます。 このような場合、 KL-divergence をベースに損失関数を定義することが多く *10 S_{n} に双対平坦性 *11を導きます。  \alpha-divergence ( \alpha \in \mathbb{R}) 全体の集合の中で考えると、双対平坦性を導く、 不変で分解不可能な  \alpha-divergence は、  (-1)-divergence (KL-divergenceに等しい) またはその双対( 1-divergence)だけであり、 それ以外には存在しないことが証明されています (例えば *12 )。

VBでの損失関数は、KL-divergence で定義されます *13。 ですので、VBは双対平坦な空間上にあるデータを観測しているように考えることができ、 テイラー展開の一般論より、CVB2 は CVB より精度が高いのは(個人的に)自然のように思えます。

空間が「平坦」であること

空間が「平坦」であるとは、 その空間が「曲がっていない」かつ「ねじれていない」ということです。

まず、「曲がっていない」とはどういうことかについて考えてみます。 例えば、 2 次元Euclid空間において、 点  P における接ベクトルと点  Q の接ベクトルは 向きと長さが等しければ同じベクトルと考えることができ、 点  P における接空間(接ベクトル全体の集合)と点  Q の接空間は 自然に対応がつき、同一のものと考えることが出来ます。 ですので、 2 次元Euclid空間上では任意の点における 接空間を同一視することができます。 一方、別の例として、 3次元Euclid空間内における、 中心から半径  r 2次元球面を考えます。 下図のように「(赤道方向を 1/4周進む)→(赤道から北極方向へ 1/4周進む)→(北極から赤道方向へ 1/4周進む)」 ことを考えた場合、スタート地点の接ベクトルはゴール地点(=スタート地点)に戻って来たときに ベクトルの向きが変わってしまっています。 この場合、球面上における異なる  2点における接空間は、 全体として(自然な)対応付けができません。  2次元球面上では、異なる 2 P, Q を取ったとき、 点  P の接空間を点  Qの接空間に対応付けようとすると、 その対応付けは点  P, Q を結ぶ曲線のとり方に依存してしまいます。 ある空間がどれだけ「曲がっているか」を表した指標を「曲率」と呼びます。 「曲がっていない」は (曲率) =0 と定義されます。

次に、「ねじれている」とはどういうことかを考えてみます。 またも、 2次元Euclid空間を例に考えてみます。 平行四辺形  P_1 P_2 P_3 P_4 を考えてみます。 下図も参照してください。 平行四辺形なので、 P_1 P_2 // P_4 P_3  P_2 \tilde{P_3} // P_1 P_4 となります ここで、Euclid空間内では  \tilde{P_3} = P_3 なのですが、 以下の説明のため別の記号を使います。 ここでは当然、ベクトル  P_1 P_2 + P_2 \tilde{P_3} と ベクトル  P_1 P_4 + P_4 P_3 が一致します。 しかし一般の  n次元空間*14では、 ベクトル  P_1 P_2 + P_2 \tilde{P_3} と ベクトル  P_1 P_4 + P_4 P_3 が一致しません。(平行四辺形が作れません) これが「ねじれている」いうことをイメージ化したものになります。 ある空間がどれだけ「ねじれているか」を表した指標を「捩(ねじれ)率」と呼びます。 「ねじれていない」場合、 (捩率) =0 と定義されます。

ですので、

平坦でない空間内でデータの探索をおこなうと、 観測結果が、探索経路に依存してしまうはずなのです。。。

感想

今回の記事はここまでです。 一気に最後まで書こうと(最初のうちは)意気込んでいましたが。。。一旦公開することにしました。 最終的には、CVB0 推論が ( \alpha = 1, −1)-divergenceの射影で構成され、  \alpha = −1 が LDA の  \alpha = 1 に類似していることを示せるということまで理解して、記事にしたいと思います。 これは、CVB0 が LDA のゼロフォーシング効果の影響を受けないことを意味します。

*1:I. Sato and H. Nakagawa, Rethinking Collapsed Variational Bayes Inference for LDA, Proceedings of the  29th International Conference on Machine Learning, Edinburgh, Scotland, UK, 2012.

*2:変分ベイズ推論を使って定義されています。論文 「D.M. Blei, A.Y. Ng, and M.I. Jordan, Latent Dirichlet allocation. Journal of Machine Learning Research, 3: 993–1022, 2003.」で提案されたLDA

*3:周辺化とは、確率変数を積分消去すること。 または、例えば、 2つの確率変数  x, y について、 その同時確率  p(x,y) と周辺確率  p(x) の間に等式  が成り立つこと:  p(x)=\sum_{y} p(x,y)

*4:論文「Teh, Yee Whye, Newman, David, and Welling, Max. A collapsed variational Bayesian inference algorithm for latent Dirichlet allocation. In Advances in Neural Information Processing Systems 19, 2007.」でのLDA

*5:佐藤一誠 (著), 奥村学 (監修), トピックモデルによる統計的潜在意味解析 (自然言語処理シリーズ), 2015年, コロナ社、 (初版90ページ目に記載)

*6:perplexityの意味で

*7:KL=Kullback-Leibler divergence。 パラメータ  \alpha \in \mathbb{R} の取り扱いは研究者により様々ありますが、 本プログ記事では「Minka, Thomas. Divergence measures and message passing. Technical report, Microsoft Research, 2005.」の定義を採用します。 そのとき、 \alpha \to 0のときは KL-divergence、  \alpha \to 1のときは 逆向きの KL-divergence、  \alpha=2 のときは  {\chi}^{2}距離、  \alpha=-1 のときは 逆向きの  {\chi}^{2}距離、  \alpha=0.5 のときは Hellinger距離 になっています。

*8:正しくは C^{2}級関数

*9:周辺化した VB のテイラー展開の 1次近似 CVB1 については、  f'(a)=0なので、CVB0 に等しくなります。

*10:KL-divergenceは距離の公理を満たさないため、厳密には 距離とは言えません。

*11:  C^{n}微分可能多様体に定義された座標系の接続が「平坦」であるだけでなく、 その双対接続も「平坦」であるということ

*12:甘利, 情報幾何学の新展開, 別冊数理科学 新展開2014, 定理4.4

*13:また論文 *1 によると、CVB0 もKL-divergence で構成されていると考えることができます。

*14:正しくは  C^{n}級微分可能多様体