ベイズ因子

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索

ベイズ因子は、ベイズ統計学において、伝統的統計学仮説検定に代わる方法として用いられる数値である。

データベクトルx に基づいて2つの数学的モデル M1M2 のどちらかを選択する問題を考える。ここで、ベイズ因子 K

K = \frac{p(x|M_1)}{p(x|M_2)}

で与えられる。この方法は尤度比検定あるいは最尤法に似ているが、尤度(モデルあるいは母数を定数とし、それを条件とする確率変数x条件付確率のこと)を最大化するのでなく、母数を確率変数とし、それに対して平均値をとってから最大化するところが違う。一般にモデルは母数ベクトル(複数の母数をベクトルとして扱う)によって規定される。これらをM1 に対して θ1M2 に対して θ2 としよう。K

K = \frac{p(x|M_1)}{p(x|M_2)} = \frac{\int \,p(\theta_1|M_1)p(x|\theta_1, M_1)d\theta_1}{\int \,p(\theta_2|M_2)p(x|\theta_2, M_2)d\theta_2}

で与えられる。このK対数をとり、「データ x によって与えられるM2 を基準としたM1証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。

K > 1 は、M1 の方が M2 よりも確からしいということをデータが示しているということであり、K < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。

[編集]

成功か失敗かどちらかの結果になる確率変数を考えよう。成功確率 q=½ とするモデル M1 と、q が全く不明で q の事前確率として[0,1]区間の一様分布をとるモデル M2 とを考えることにする。200標本を抽出し、そのうち成功が115、失敗が85だとする。尤度は:

{{200 \choose 115}q^{115}(1-q)^{85}}

従ってモデル M1 で上の結果が出る確率は

P(X=115|M_1)={200 \choose 115}\left({1 \over 2}\right)^{200}=0.00595...\,

となるが、モデル M2 でのそれは

P(X=115|M_2)=\int_{q=0}^1{200 \choose 115}q^{115}(1-q)^{85}dq = {1 \over 201} = 0.00497...\,

ゆえに比は1.197...、つまりごくわずかに M1を支持するものの、「ほとんど意味がない」程度である。

一方、古典的な尤度比検定を考えてみよう。q の最尤推定量 115200=0.575 が得られる。これに基づくモデルを M2 として、0.1045...という比が得られ、ゆえに M2が支持されることになる。M1 を帰無仮説として片側検定を行うと、q=½ ならば200標本から115またはそれ以上の成功を得る確率は0.0200... であり、両側検定でも成功115回またはそれ以上極端な結果を得る確率は0.0400... だから、「 M1 は信頼水準5%で棄却される」(115は100から2標準偏差以上離れている)というさらに顕著な結果が得られる。

M2 は自由な母数を持つので、M1 よりも複雑で厳密なモデルであるといえる。ここにベイズ因子の価値がある。