出典: フリー百科事典『ウィキペディア(Wikipedia)』
確率論 における独立 (どくりつ、英 : independent )とは、2つの事象 が何れも起こる確率 がそれぞれの確率の積に等しいことをいう。一方の事象が起こったことが分かっても、他方の事象の確率が変化しないことを意味する。
この「独立」の概念は、2個以上の事象、2個以上の確率変数 、2個以上の試行 に対して定義される。
2つの確率変数 が独立 であるとは、「ある確率変数の値が一定範囲に入る事象」と「別の確率変数の値が別の一定範囲に入る事象」が、考えられるどのような「一定範囲」(「考えられる」とは通常ボレル集合 族を指す)を定めても事象として独立であることをいう。2つの確率変数が独立である場合は、一方の変数が値をとっても、他方の変数の確率分布 が変化しないことを意味する。
確率論における独立は、他の分野における独立性の概念と区別する意味で、確率論的独立 (かくりつろんてきどくりつ、英 : stochastic independence )あるいは統計的独立 (とうけいてきどくりつ、英 : statistical independence )などとも呼ばれる。
事象の独立 [ 編集 ]
独立を定義するのに最も基本となるのは、事象 の独立[注釈 1] である。2つの事象 A と B が独立 であるとは
P
(
A
∩
B
)
=
P
(
A
)
P
(
B
)
{\displaystyle P(A\cap B)=P(A)P(B)}
が成り立つことである。ここで、左辺の A ∩ B は事象 A と B が何れも起こる事象(積事象 )を表し、たとえば P (A ) は事象 A の確率 を表す。事象 A と B が独立であることを記号
A
⊥
⊥
B
{\displaystyle A\perp \!\!\!\perp B}
で表すこともある[2] 。もし、P (B ) ≠ 0 であれば、条件付き確率 P (A |B ) ≔ P (A ∩ B )/P (B ) を用いて定義式を
P
(
A
|
B
)
=
P
(
A
)
{\displaystyle P(A|B)=P(A)}
と書き換えることもできる。これは事象 A と B が独立であるとは、事象 B が起こることが事象 A の確率 に一切の影響を与えないことを意味する。上の定義は P (B ) = 0 のときにも対応しているので、通常は上の定義を用いる。事象が独立でないことを従属 という。
一般に、(有限とは限らない)事象の族 {Aλ } が独立 であるとは、その部分有限族
{
A
λ
1
,
A
λ
2
,
⋯
,
A
λ
n
}
{\displaystyle \{A_{\lambda _{1}},A_{\lambda _{2}},\cdots ,A_{\lambda _{n}}\}}
に対して
P
(
A
λ
1
∩
A
λ
2
∩
⋯
∩
A
λ
n
)
=
P
(
A
λ
1
)
P
(
A
λ
2
)
⋯
P
(
A
λ
n
)
{\displaystyle P(A_{\lambda _{1}}\cap A_{\lambda _{2}}\cap \cdots \cap A_{\lambda _{n}})=P(A_{\lambda _{1}})P(A_{\lambda _{2}})\cdots P(A_{\lambda _{n}})}
が成立することをいう。
確率変数の独立 [ 編集 ]
まず基本となる、2つの確率変数 が独立であることの定義を述べる[注釈 2] 。2つの確率変数 X と Y が独立 であるとは、任意の実数 a, b に対して
P
(
X
<
a
,
Y
<
b
)
=
P
(
X
<
a
)
P
(
Y
<
b
)
{\displaystyle P(X<a,Y<b)=P(X<a)P(Y<b)}
が成り立つことである。つまり、確率変数の同時累積分布関数 が周辺累積分布関数の積に分解されるとき、独立であるという。確率変数 X と Y が独立であることを記号
X
⊥
⊥
Y
{\displaystyle X\perp \!\!\!\perp Y}
で表すこともある[4] 。
一般に、(共通の確率空間 上の実)確率変数の族 { Xλ | λ ∈ Λ } が独立 であるとは、任意の実数 aλ に対して、事象の族
{
{
X
λ
<
a
λ
}
∣
λ
∈
Λ
}
{\displaystyle \{\{\,X_{\lambda }<a_{\lambda }\}\mid \lambda \in \Lambda \,\}}
が独立であることをいう[注釈 3] 。つまり、任意の実数 aλ と添字集合 Λ の任意の有限部分族 {λ 1 , …, λn } に対して
P
(
X
λ
1
<
a
λ
1
,
X
λ
2
<
a
λ
2
,
…
,
X
λ
n
<
a
λ
n
)
=
P
(
X
λ
1
<
a
λ
2
)
P
(
X
λ
2
<
a
λ
1
)
⋯
P
(
X
λ
n
<
a
λ
n
)
{\displaystyle P(X_{\lambda _{1}}<a_{\lambda _{1}},X_{\lambda _{2}}<a_{\lambda _{2}},\dotsc ,X_{\lambda _{n}}<a_{\lambda _{n}})=P(X_{\lambda _{1}}<a_{\lambda _{2}})P(X_{\lambda _{2}}<a_{\lambda _{1}})\dotsm P(X_{\lambda _{n}}<a_{\lambda _{n}})}
が成り立つことをいう。
完全加法族の独立 [ 編集 ]
完全加法族 の場合は、完全加法族の族 {Fλ } が独立 であるとは、その任意の有限部分族
{
F
λ
1
,
F
λ
2
,
⋯
,
F
λ
n
}
{\displaystyle \{{\mathcal {F}}_{\lambda _{1}},{\mathcal {F}}_{\lambda _{2}},\cdots ,{\mathcal {F}}_{\lambda _{n}}\}}
に対して、
P
(
A
1
∩
A
2
∩
⋯
∩
A
n
)
=
P
(
A
1
)
P
(
A
2
)
⋯
P
(
A
n
)
,
∀
A
1
∈
F
λ
1
,
∀
A
2
∈
F
λ
2
,
⋯
,
∀
A
n
∈
F
λ
n
{\displaystyle P(A_{1}\cap A_{2}\cap \cdots \cap A_{n})=P(A_{1})P(A_{2})\cdots P(A_{n}),\quad ^{\forall }A_{1}\in {\mathcal {F}}_{\lambda _{1}},^{\forall }A_{2}\in {\mathcal {F}}_{\lambda _{2}},\cdots ,^{\forall }A_{n}\in {\mathcal {F}}_{\lambda _{n}}}
が成立することをいう。事象 A に対しては事象の生成する完全加法族 σ (A ) とし、確率変数 X に対しては確率変数の生成する完全加法族 σ (X ) とすると、完全加法族による定義は上に挙げた事象の また確率変数の 定義と一致する。またこれら3種類の対象の混ざった独立性も定義できる。
日本産業規格 [ 編集 ]
日本産業規格 では、「確率変数 X と Y が独立であるための必要十分条件は,その同時分布関数が,F (x , y ) = F (x , ∞) ⋅ F (∞, y ) = G (x ) ⋅ H (y ) と表されることである。ただし,G (x ) = F (x , ∞) 及び H (y ) = F (∞, y ) は,それぞれ X 及び Y の周辺分布関数である。」と定義している 。
独立性を満たす場合に成立する定理や、独立性の十分条件の代表例を挙げる。
2つの確率変数 X と Y が互いに独立である場合
関数 f と g に対して、f (X ) と g (Y ) も独立になる。
積 と期待値 は可換 である。つまり
E
[
X
Y
]
=
E
[
X
]
E
[
Y
]
{\displaystyle E[XY]=E[X]E[Y]}
F
X
,
Y
(
x
,
y
)
=
F
X
(
x
)
F
Y
(
y
)
,
f
X
,
Y
(
x
,
y
)
=
f
X
(
x
)
f
Y
(
y
)
{\displaystyle F_{X,Y}(x,y)=F_{X}(x)F_{Y}(y),\quad f_{X,Y}(x,y)=f_{X}(x)f_{Y}(y)}
V
(
X
+
Y
)
=
V
(
X
)
+
V
(
Y
)
{\displaystyle V(X+Y)=V(X)+V(Y)}
次を満たすとき確率変数 X と Y は独立になる。
E
[
f
(
X
)
g
(
Y
)
]
=
E
[
f
(
X
)
]
E
[
g
(
Y
)
]
{\displaystyle E[f(X)g(Y)]=E[f(X)]E[g(Y)]}
E
[
exp
(
i
(
ξ
X
+
η
Y
)
)
]
=
E
[
exp
(
i
ξ
X
)
]
E
[
exp
(
i
η
Y
)
]
{\displaystyle E[\exp(i(\xi X+\eta Y))]=E[\exp(i\xi X)]E[\exp(i\eta Y)]}
独立性の検定 [ 編集 ]
独立性を判断するには、独立性を仮定した上で対象の振る舞いを調べ、独立性を仮定したことによる矛盾が引き出せるかどうかを確認する必要がある。独立性(あるいは従属性)を判別する手段として分割表 を用いた独立性の検定 がある。独立性の検定に用いられる手法には例えばカイ二乗検定 などがある。独立性の検定によって2つの事象の間の従属性を判断することができるが、独立であるかどうか積極的に決定することは難しい。
^ これは単に「事象の族が独立である」という定義(後述)の特殊な場合に過ぎない。
^ これは単に「確率変数の族が独立である」という定義(後述)の特殊な場合に過ぎない。
^ ここで事象 {X < a } とは、確率空間を
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
、実確率変数を X : Ω → R とするとき、事象
X
−
1
(
[
−
∞
,
a
)
)
=
{
ω
∈
Ω
∣
X
(
ω
)
<
a
}
∈
F
{\displaystyle X^{-1}([-\infty ,a))=\{\,\omega \in \Omega \mid X(\omega )<a\,\}\in {\mathcal {F}}}
の略記である。
^ 杉浦誠 (2016), 確率統計学 I , p. 6, http://www.math.u-ryukyu.ac.jp/~sugiura/2016/prob2016a.pdf 2018年7月4日 閲覧。
^ Drton, M.; Sturmfels, B.; Sullivant, S. (2009), Lectures on Algebraic Statistics , Springer, p. 2 , ISBN 978-3-7643-8904-8
参考文献 [ 編集 ]
関連項目 [ 編集 ]