確率論的独立性

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索

確率論において、2つの事象独立であるというのは、ある事象と別の事象の両方が成立する確率が、それぞれの確率の積で表されることを言う。2つの確率変数独立であるというのは、「ある確率変数の値が一定範囲に入る事象」と「別の確率変数の値が別の一定範囲に入る事象」が、考えられるどのような「一定範囲」(「考えられる」とは通常ボレル集合族を指す)を定めても、事象として独立であることを言う。

2つの事象が独立といった場合は、片方の事象が起きたことが分かっても、もう片方の事象の起きる確率が変化しないことを意味する。2つの確率変数が独立といった場合は、片方の変数の値が分かっても、もう片方の変数の分布が変化しないことを意味する。

定義[編集]

事象の独立[編集]

まず基本となる、2つの事象 AB が独立であることの定義は

P(A \cap B) = P(A)P(B)

となることである。もし、P(B) ≠ 0 であれば、条件付確率を用いて

P(A|B) = P(A)\,

と書くこともできる。これは事象 B が起きたかどうかが分かっても、A が起きるかどうかの確率には影響を与えないことを意味する。上の定義は P(B) = 0 のときにも対応しているので、通常は上の定義を用いる。

次に、事象の族 { Aλ } が独立であるとは、その任意の有限部分族

\{ A_{\lambda_1}, A_{\lambda_2}, \cdots, A_{\lambda_n} \}

に対して

P(A_{\lambda_1} \cap A_{\lambda_2} \cap \cdots \cap A_{\lambda_2}) = P(A_{\lambda_1})P(A_{\lambda_2})\cdots P(A_{\lambda_n})

が成立することをいう。

確率変数の独立[編集]

確率変数の場合は、確率変数の族 { Xλ } が独立であるとは、任意の実数 aλ に対して、事象の族

\{ \{ X_\lambda < a_\lambda \} \}\,

が独立であることをいう。

完全加法族の独立[編集]

完全加法族の場合は、完全加法族の族 { Fλ } が独立であるとは、その任意の有限部分族

\{ \mathcal{F}_{\lambda_1}, \mathcal{F}_{\lambda_2}, \cdots, \mathcal{F}_{\lambda_n} \}

に対して、

P(A_1 \cap A_2 \cap \cdots \cap A_n) = P(A_1)P(A_2)\cdots P(A_n),\quad ^\forall A_1 \in \mathcal{F}_{\lambda_1}, ^\forall A_2 \in \mathcal{F}_{\lambda_2}, \cdots, ^\forall A_n \in \mathcal{F}_{\lambda_n}

が成立することをいう。事象 A に対しては事象の生成する完全加法族 σ(A) とし、確率変数 X に対しては確率変数の生成する完全加法族 σ(X) として、この定義を使えば、前の定義と一致するし、この3種類の対象の混ざった独立性も定義できるので便利である。

定理[編集]

独立性を満たす場合に成立する定理や、独立性の十分条件の代表例を挙げる。

2つの確率変数 XY が独立のとき

  • 関数 fg に対して、f(X) と g(Y) も独立になる。
  • 期待値可換である。つまり
E[XY] = E[X]E[Y]\,
F_{X,Y}(x,y) = F_X(x)F_Y(y),\quad f_{X,Y}(x,y) = f_X(x)f_Y(y)\,
V(X+Y) = V(X) + V(Y)\,

次を満たすとき確率変数 XY は独立になる。

  • 任意の有界関数 fg に対して
E[f(X)g(Y)] = E[f(X)]E[g(Y)]\,
E[\exp(i(\xi X + \eta Y))] = E[\exp(i\xi X)] E[\exp(i\eta Y)]\,

独立性の検定[編集]

上のような定義で問題となるのは、全ての事象の確率があらかじめ計算できるように与えられている場合の独立性の判定方法を示しているだけで、現実に起きるランダムな現象に対して、それがどういった条件を満たせば独立といえるのかという問題に答えていないことである。高校数学で確率を習うときにも、独立であるためにはどういう条件を満たせばいいかを教えずに、「サイコロを2つ投げたとき」のように独立だと思える試行の例を挙げるのみにとどまっている。これも独立性を定義することが難しいことによるのである。

最も簡単に独立性を判断できる場合として、「同様に確からしい: equally possible)」によって確率を定めた場合がある。例えば、コインを2つ投げたときに出る表と裏の組み合わせは、(表, 表), (表, 裏), (裏, 表), (裏, 裏) の4通りである。この4通りの内、ある組み合わせが特別に出やすいとか出にくいといった判断ができないときに「同様に確からしい」といって、各々の組み合わせが出る確率は等しく 1/4 であると定めるわけである。これで確率が定まったので、最初に挙げた定義にのっとり片方のコインの結果ともう一方のコインの結果は独立であるということができる訳である。しかし、最初の「同様に確からしい」という判断には、2つのコインが「独立」していることが判断基準に入っているはずである。このように、「同様に確からしい」という概念は「独立性」を含んでいる。

「同様に確からしい」は実験によって確かめることもできる。2つのコインを投げるという試行を何度も繰り返して、上の4通りの組み合わせの出現を数え、統計の手法を用いることで、「同様に確からしい」ことを実証できる。「同様に確からしい」ことが確かめられたら、上のようにして独立性も示せるわけである。

この統計手法から「同様に確からしい」を外して、どのような分布にも対応できるようにしたのが、分割表による独立性の検定である。これについては、カイ二乗検定の項目を見られたい。

関連項目[編集]