orizuru

つながる.見える.わかる IoTソリュ-ション

予測分布とハイパーパラメータについて、とにかく全力でわかりやすく説明する

By
約 18 分
予測分布とハイパーパラメータについて、とにかく全力でわかりやすく説明する

こんにちは、BBです。
今を時めく予測分布とハイパーパラメータのお二人についてご紹介していきます。
この記事の目的は「予測分布についてどういうものなのかイメージがうまくできていないという方がご自身でソースコードに落とし込めるようになる」です。そもそも僕がそうなりたいと思って記事を書いてます。終盤はPythonコードの説明もあります。

予測分布のご紹介

そもそも予測分布とは

そもそも予測分布とはなにかというと、これです。

(1)   \begin{eqnarray*} p\left ( x_{*} \mid D \right ) = \int p\left ( x_{*} \mid D, \theta  \right )p\left ( \theta \mid D \right ) d \theta \end{eqnarray*}

突如として現れた数式に対して動揺を隠しきれませんが、これが現実です。ここで左辺のp\left ( x_{*} \mid D \right )を予測分布といい、Dを既に観測されている値、\thetaをパラメータ、x_{*}を未知の値といいます。x_{*} \mid D \rightのような縦線はDを固定したときのx_{*}という意味です。

予測分布の「分布」ってなに?

分布、分布と何度も出てきていますがこれはいったい何なのでしょうか。ここでいう分布とは「全部足したら1になる数字の並び」です。例えば\left ( 0.5, 0.5 \right )こんな感じです。\left ( 0.7, 0.1, 0.2 \right )これでもいいです。合計が1になる数字の並び、簡単ですね。 0.7 だの 0.2 だのといった個々の数値のことを「確率」といい、この分布のことを「確率分布」と言ったりします。よく知られている確率は合計が100%ですが、合計が100なのか1なのか程度の違いしかないので同じものとします。

さて、分布について説明してきましたがp\left ( x_{*} \mid D \right )で表される予測分布も同じことです。この確率分布は p\left ( x_{*} \right )のようにp\left (  \right )で書かれることが多いです。カッコの中にはx_{*}が入っているので変数 x_{*} になんかすると出てくる答えを、全パターン並べると上記の「確率分布」になっていることを示しています。注意したいのはx_{*}に適当な値を入れると出てくるのはx_{*}がその値をとりうる確率となっています。例えば\left ( 0.7, 0.1, 0.2 \right )のなかの 0.1 かもしれません。言い換えると変数 x の全パターンの「確率」を並べたのが「確率分布」ということです。

予測分布

もう一度、予測分布の式を眺めてみる

もう一度、予測分布の式を眺めてみるとすでにお気づきかもしれませんが、めっちゃ使われていますp\left ( \right )が。ここまでの知識で予測分布の式を日本語訳してみます。長いのでまずは積分\int d \thetaの中を見てみましょう。p\left ( x_{*} \mid \theta  \right )p\left ( \theta \mid D \right )=>「Dを固定したときの\thetaを変数にとる確率と\thetaを固定したときのx_{*}の確率をかけたもの」となります。Dは観測した値ですので、すでに固定されていますね。パラメータ\thetaで積分というのは\theta全パターンで出てきた値を全部足すということになります。続いて左辺p\left ( x_{*} \mid D \right )=>「Dを固定したときのx_{*}となる確率」つまり観測値をこの式に突っ込んでやると今後起こりうる事象の確率が予測できてしまうということです。さすが予測分布。名前に恥じない働きをしてくれそうです。

予測分布

ハイパーパラメータのご紹介の前に

まずはパラメータだろという話

ハイパーなパラメータの前にそもそもパラメータがよくわかってないよという声が焦燥感とともに僕の中にこだましていますので、まずはパラメータのことをもう少しまとめていきましょう。そもそもパラメータって何でしょうか。ゲームとかではよく耳にする単語ですが、現実世界にパラメータが転がっているのを見たことがありませんし、食べたこともありません。そう、パラメータは数値上でのみ存在し、目的のために作られた都合の良い数字というわけです。たいていのものは食べることで認識してきた僕にとってはなかなかとっつき難い代物です。そんな都合の良い数字ですが、その予測分布で使用されるパラメータの目的は「未知の値について何らかの知見を得る」とはっきりしています。要するに「未知の値についての確率分布を求めるために定義した数字」ということになりますね。また、手元にある情報は観測された値Dだけなのでこれを用いてパラメータ\thetaを計算していくことになります。

グラフィカルモデル

ベイズの定理でパラメータを求めよう

観測された値Dを用いてパラメータ\thetaを計算する手法、これこそがベイズの定理となります。ベイズの定理についての詳細は別の機会にまとめるとして、パラメータの求め方に注目して整理してきたいと思います。

(2)   \begin{eqnarray*} p\left ( \theta  \mid D \right ) = \frac{p\left ( D  \mid \theta \right )p\left ( \theta \right )}{p\left ( D \right )} \end{eqnarray*}

こちらがベイズの定理となりますが、いかがでしょうか。すでに式の読み方はばっちりですね!念のため日本語訳していくとこんな感じです。左辺=>「観測された値Dを固定したときのパラメータ\thetaの確率(事後分布)」、右辺=>「”パラメータ\thetaを固定したときの観測した値Dの確率”(尤度関数)と”パラメータ\thetaの確率”(事前分布)を掛けて”観測された値Dの確率(エビデンス)”で割る」となります。パラメータを求めたいのに右辺にやたらとパラメータが入っているので混乱しますが、ここは先人たちの匠の技で何とかなりますので安心してください。

尤度関数と事前分布と事後分布

式(2)で定義したベイズの定理は問題設定によって適切に尤度関数と事前分布、事後分布を設定してやる必要があります。その前にベイズの定理を使いやすいように少し変形させておきましょう。

(3)   \begin{eqnarray*} \begin{split} p\left ( \theta  \mid D \right ) &= \frac{p\left ( D  \mid \theta \right )p\left ( \theta \right )}{p\left ( D \right )}\\ &\propto p\left ( D  \mid \theta \right )p\left ( \theta \right ) \end{split} \end{eqnarray*}

最後の行では分母にあった観測された値Dの確率、エビデンスが省略されています。求めたい左辺、事後分布は合計が1になる確率分布ですので値そのものにはあまり価値がなく、それぞれの確率の相対的な大小さえ変動がなければ問題ないので固定値となるエビデンスは無視しても問題ないという考え方です。問題によって尤度関数を設定していくのですが、設定した尤度関数に応じて特定の形の事前分布を使用すると事後分布と事前分布が同じ関数形をとることができます。共役事前分布をとるとき左辺のp\left ( \theta  \mid D \right )と右辺のp\left ( \theta \right )が同じ式であらわされます。それがどうしたという感じですが、共役事前分布を使うと後ほど紹介しますが逐次学習が効率的に実施できるようになるなど学習を効率化することができます。

ハイパーパラメータのご紹介

その前に問題設定

さて、ベイズの定理まで説明できましたので具体的に問題を設定して説明していきます。ベイズの定理では問題設定に応じた尤度関数、事前分布、事後分布の設定が必要となるためです。今回はサイコロを投げてどの目が出るかの予測分布を計算したいと思います。そんなものどの目も6分の1になるだろ、と思うかもしれないですが、ここではかなり出来の悪いサイコロを仮定します。そして、そんなことは何も知らないベイズの定理が適切にパラメータを設定できるかが今回の見どころです。

サイコロ問題の尤度関数と共役事前分布

今回の出来の悪いサイコロ問題では確率分布にカテゴリ分布を使います。式にするとこんな感じです。

(4)   \begin{eqnarray*} p\left ( \vec{s}  \mid \vec{\pi} \right ) = Cat\left ( \vec{\pi} \mid  \vec{s} \right ) \end{eqnarray*}

\vec{\pi}はパラメータ、\vec{s}はサイコロの目をベクトルで表現したものになりますが、詳細は後で説明します。カテゴリ分布はサイコロの目のようなきっちり有限個に分類できる事象に対して確率分布を求めることができます。このような確率分布のことを離散確率分布といいます。対して身長が170cmとなる確率のような連続した値を扱うときは連続確率分布といい、このような問題に対しては別の関数を使用します。確率分布がカテゴリ分布の場合は尤度関数にカテゴリ分布、事前分布にディリクレ分布を使います。式(3)に突っ込んでやるとこのようになります。

(5)   \begin{eqnarray*} \begin{split} p\left ( \vec{\pi}  \mid \mathbf{S} \right ) &\propto p\left ( \mathbf{S}  \mid \vec{\pi} \right )p\left ( \vec{\pi} \right )\\ &= \left \{ \prod_{n=1}^{N} Cat \left ( \vec{s}_{n}  \mid \vec{\pi} \right ) \right \} Dir \left ( \vec{\pi} \mid \vec{\alpha} \right ) \end{split} \end{eqnarray*}

くじけず式の説明をしていきましょう。\vec{\pi}はパラメータです。パラメータはディリクレ分布で生成しているので要素の和が1になる6次元の実数ベクトルとなります。\mathbf{S}は観測値です。サイコロの出た目が観測値ですので出た目の情報が配列の形で入力されます。例えばサイコロを1回振って6が出たらこう。

    \begin{eqnarray*} \begin{split} \mathbf{S} &= \begin{bmatrix}\vec{s}_{1}\end{bmatrix}\\ &= \begin{bmatrix}0 & 0 & 0 & 0 & 0 & 1\end{bmatrix} \end{split} \nonumber\end{eqnarray}

2回振って1と3が出たらこう。

    \begin{eqnarray*} \begin{split} \mathbf{S} &= \begin{bmatrix}\vec{s}_{1}\\ \vec{s}_{2}\end{bmatrix}\\ &= \begin{bmatrix}1 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 1 & 0 & 0 & 0\end{bmatrix} \end{split} \nonumber\end{eqnarray}

このように1回振ると一つベクトルが追加され、ベクトルは出た目のところに1、他の目は0が入ります。ややこしいですね。式(5)の2行目、\left \{  \right \}が尤度関数のカテゴリ分布、右側が事前分布のディリクレ分布です。この式を変形していくと1行目左辺の事後分布は以下のように事前分布と同じ形をとることが明らかになります。先ほど説明した共役事前分布というわけですね。

(6)   \begin{eqnarray*} \begin{split} Dir \left ( \vec{\pi} \mid \vec{\hat{\alpha}} \right ) \propto \left \{ \prod_{n=1}^{N} Cat \left ( \vec{s}_{n}  \mid \vec{\pi} \right ) \right \} Dir \left ( \vec{\pi} \mid \vec{\alpha} \right ) \end{split} \end{eqnarray*}

ここで\hat{\alpha}は以下のようなややこしい形になります。Kは観測値の次元の数となりますので、サイコロの目を考えるとK=6となります。

(7)   \begin{eqnarray*} \hat{\alpha} = \sum_{n=1}^{N}s_{n,k}+\alpha_{k},\ k=1,2,\cdots,K \end{eqnarray*}

サイコロ問題の予測分布

さて、予測分布の説明を始めます。数式はこれが最後なのでもう少し頑張りますし頑張ってください。サイコロの目問題では尤度関数はカテゴリ分布や共役事前分布はディリクレ分布というようなお約束がありますが、同じように予測分布はカテゴリ分布となります。式(1)と式(3)、式(4)、式(5)を使って以下のように書くことができます。

(8)   \begin{eqnarray*} p \left ( \vec{s}_{*} \mid \mathbf{S} \right ) = Cat\left ( \vec{s}_{*} \mid \left ( \frac{\hat{\alpha}_{k}}{\sum_{i=1}^{K}\hat{\alpha}_{i}} \right )_{k=1}^{K} \right ) \end{eqnarray*}

パラメータの形が非常にややこしいことになっておりますが、カテゴリ分布の形をとります。\vec{s}_{*}は未知の値、これからサイコロを振って何が出るかを仮定して入力します。つまり右辺に\vec{s}_{*} = \begin{bmatrix}0 & 0 & 0 & 0 & 0 & 1\end{bmatrix}を与えてやれば6が出る確率が計算できるというわけです。もちろん確率なので\vec{s}_{*}に1~6の目それぞれを入力して出力された確率は合計1になります。

ハイパーパラメータは適当に決める??

ようやくハイパーパラメータを説明する準備が整いました。今回のサイコロ問題のパラメータは式(5)の\vec{\pi}が該当します。事前分布であるディリクレ分布の変数を見てみるとパラメータ\vec{\pi}はいいのですが\vec{\alpha}を渡すことが前提となっています。これはパラメータを決めるためのパラメータが必要ということになります。つまり超パラメータ、ハイパーパラメータの登場です。サイコロの場合は6個の目がありますので6個のハイパーパラメータを適当に決めてやります。本当に適当でよいのか、非常に疑わしいのでこれから次の章で実験していきましょう。

予測分布の計算

予測分布の計算概要

言葉での説明も飽きてきたと思いますのでここからはPythonのコードを混ぜながら予測分布計算プログラムの実装と本当にハイパーパラメータは適当でいいのかを確認していきたいと思います。サイコロは1~10000回振ってそれぞれの結果に対して予測分布を計算しています。処理の流れは以下のような感じで行きます。

  1. 出来の悪いサイコロデータを生成
  2. ハイパーパラメータの設定
  3. パラメータの計算
  4. 予測分布の計算

出来の悪いサイコロデータを生成する際にどの目がどの確率で出るかを設定するのですが、この設定した確率を予測分布で求めるというのが今回の目的です。もちろん予測分布にはサイコロデータのみをあたえる為、データを作成する際の確率は知る由もありません。

出来の悪いサイコロデータ作成

出来の悪いサイコロを振ってそれぞれの目の出る確率を以下のように定義してみました。出来が悪すぎるので目が出る確率はすべて違っています。

サイコロの目 1 2 3 4 5 6
目が出る確率 0.03 0.07 0.15 0.20 0.25 0.30

データを作成するために使用したコードは以下のようになります。

saikoro_dataにはサイコロを1~10000回振った結果を格納しています。1回なら1~6の目が何回出たかがそれぞれ[0, 0, 0, 0, 0, 1]、100回なら[ 2, 8, 13, 20, 27, 30]のように順番に入っています。

ハイパーパラメータの設定

値によってどのような影響を見る為、今回はハイパーパラメータを以下1パターンで設定していきます。

パターンA [1, 1, 1, 1, 1, 1]
パターンB [11, 22, 33, 44, 55, 66]
パターンC [66, 55, 44, 33, 22, 11]

値によって計算結果にどのような差が生じるのでしょうか。

パラメータの計算、予測分布の計算

共役事前分布のディリクレ分布を使って\vec{\pi}を求め、予測分布の計算まで一気に行っていきます。コードはこんな感じのを作りました。

まずはパターンAで計算した結果です。
縦軸が確率、横軸がサイコロを投げた回数となっています。

最初はばらつきのあった確率が次第に設定した確率へ収束していく様子がわかります。正しく予測分布が計算できていることがわかりますね。次にパターンBのハイパーパラメータを用いるとどうでしょうか。

収束の速度に多少変化があるようですが、こちらも正しく予測分布が計算できているように見えます。

パターンCの結果は他のパターンと同様に収束しますが、初期の値からぐにゃりと曲がって収束しています。収束には他のパターンより多くの観測値が必要になっています。

ハイパーパラメータは適当でよいのか??

今回の実験ではサイコロを10000回振って予測分布の計算を行いました。その結果はどのパターンでも最終的には適切な値に落ち着いています。その点ではハイパーパラメータは適当な値でもよいということになります。これは式(8)で示した予測分布に使用している\vec{\hat{\alpha}}は観測値の情報を取り込んで精度が改善された為です。\vec{\hat{\alpha}}の定義は式(7)で示していますが観測値s_{n,k}が含まれていますね。このように観測値が潤沢に準備することができればハイパーパラメータは適当に設定してもいつかは精度が担保されそうです。しかし、観測値が充分に入手できない場合はどうでしょうか。サイコロを振るのに飽きてしまう場合は十分に考えられます。それぞれのパターンでは収束までの回数が異なることは先に述べました。特にパターンCのように本来の確率分布とかけ離れた値を設定してしまうと収束にはより多くの観測値が必要となります。つまり観測値が少ない場合はハイパーパラメータは適当に決めるわけにはいかないというのが結論のようです。

共役事前分布のメリット

書くのを忘れてましたが、共役事前分布を使った場合のメリットを挙げておきます。サイコロを使った今回の実験でもサイコロを投げれば投げるほど予測精度が向上するという結果を得られましたが、手元にあるデータが充分であるかどうかは計算してみるまで分かりません。もし観測値が足らなかった場合に最初から計算しなおすのは無駄ですよね。そこで共役事前分布の出番です。手持ちの観測値を使って得られた計算結果つまり事後分布を事前分布として式に与えることによって続きから計算できるというわけです。この性質からリアルタイムデータを使った学習も可能になりますね。

逐次学習

まとめ

今回は予測分布とハイパーパラメータと題してまとめてきました。サイコロの目が出る確率を計算するという問題を扱いましたが、結論としては以下のようなことがわかりました。

  1. サイコロを振れば振るほど予測分布は正解に収束する
  2. ハイパーパラメータの設定は自由度が高いが、予測分布の収束速度に影響がある場合がある
  3. 観測値が少ない場合は収束が速くなるようハイパーパラメータの調整が必要となる

ハイパーパラメータの設定によっては収束速度に影響がある為、手元にある観測値が少ない場合は調整する必要がありそうですね。長くなりましたが今回はこの辺でお開きにしたいと思います!

Leave A Reply

*
*
* (公開されません)