伊藤の補題

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索
ウィーナー過程の一試行(青線)の伊藤積分(緑線)の例

伊藤の補題(いとうのほだい、Itō's lemma)は、確率微分方程式確率過程に関する積分を簡便に計算するための方法である。伊藤清が考案した。

伊藤積分[編集]

確率過程、とくにウィーナー過程  B_t の積分を考えたい。確率的にしか予言できない過程であっても、大数の法則を認めるような立場では、積分を定義することが出来る。 このような積分の定義の仕方にはいくつかあるが、伊藤清の定義した伊藤積分が、積分がマルチンゲールになるという応用上望ましい性質を持つため、しばしば用いられる。

伊藤積分の定義[編集]

確率過程  Y_t の区間  [0, t] におけるウィーナー過程  B_t に関する積分を

\int_0^t Y_s\,dB_s = \sum_{i=1}^{n-1} Y(t_{i-1})(B(t_i)-B(t_{i-1})) + Y(t_{n-1})(B(t)-B(t_{n-1}))

の分割  0 = t_0 < t_1 < \cdots < t_{n-1} < t_n =t を細かくした極限で定義する。 関数  Y_t は、よい性質(可測で、 B_t 適合する増大情報系に適合し、局所二乗可積分)を持っているものとする。 一見、リーマン積分と似た定義である。しかし、区間  t_{i-1} \le t < t_i のどの  t  Y(t) を評価してもリーマン積分は定義できるのに対し、伊藤積分は区間の左端  Y(t_{i-1}) を用いる。 この和は、分割の仕方によらず、分割を小さくする極限で一定の値に収束することが示される [1]

確率微分[編集]

この積分のいわば逆計算として、確率過程の微分  dB_t が定義できる。 二次の微分  dB_t dB'_t

\sum_{i=1}^{m} (B(t_i)-B(t_{i-1}))(B'(t_i) - B'(t_{i-1})) \qquad\qquad\qquad\qquad (1)

の分割  {t_0 < t_1 < \cdots < t_m} を細かくした極限で定義する[2]

伊藤の公式[編集]

確率過程 \{X_t \}確率微分方程式

dX_t = f(t) dt +  g(t) dB_t

に従っているとき,  h(t,x)  t, x について二回連続微分可能とすると

dh = \left. \frac{\partial h}{\partial t}\right |_{x=X_t} dt + \left. \frac{\partial h}{\partial x}\right |_{x=X_t} f(t) dt
+ \left. \frac{\partial h}{\partial x}\right |_{x=X_t} g(t) dB_t + \left. \frac{1}{2}\frac{\partial^2 h}{\partial x^2}\right |_{x=X_t} (g(t))^2 dt

が成立する [3]。 確率過程を含まない積分表示では現れない  x の微分に関する二次の項が存在する。これはウィーナー過程の性質 (dB_t)^2 = dt による。

伊藤ルール[編集]

伊藤の公式は、 h(t,x) の二次までのテイラー展開に

  1. (dB_t)^2 = dt
  2. dB_t dt =0
  3. (dt)^2 = 0

を適用して得られる形をしている。 伊藤ルールを用いると、次のような計算が出来る。

de^{B_t^2}= 2B_t e^{B_t^2} dB_t + (e^{B_t^2} + 2B_t^2 e^{B_t^2} )dt

証明[編集]

上記の確率過程を含む二回微分の定義(1) を用いる。 第一式[4]

S = \sum_{i=1}^{m} (B(t_i)-B(t_{i-1}))^2

と置くと、 S の期待値は

E(S) = \sum_{i=1}^{m} E((B(t_i)-B(t_{i-1}))^2)

である。 ウィーナー過程の性質により、それぞれの  B(t_i)-B(t_{i-1}) は独立だから S の分散は

V(S) = \sum_{i=1}^{m} V((B(t_i)-B(t_{i-1}))^2)
= \sum_{i=1}^{m} E((B(t_i)-B(t_{i-1}))^4) - (E((B(t_i)-B(t_{i-1}))^2))^2

である。

ウィーナー過程の性質により、  B(t_i)-B(t_{i-1}) は平均 0 分散  t_i - t_{i-1} 正規分布に従う。すなわち、  E(B(t_i)-B(t_{i-1}) = 0  E((B(t_i)-B(t_{i-1}))^2) = t_i - t_{i-1}  E((B(t_i) - B(t_{i-1}))^4) = 3(t_i-t_{i-1})^2 となるから結局  E(S) = t であり、分割を細かくする極限で

 V(S) = 2\sum_i (t_i-t_{i-1})^2 \le 2 \max(t_i-t_{i-1}) \sum_i (t_i-t_{i-1})
= 2 \max(t_i-t_{i-1}) t \to 0 となる。

チェビシェフの不等式を用いれば、 S  E(S) = t に(確率の意味で)収束することが示される。


第二式は

 \sum_{i=1}^{m} (t_i - t_{i-1}) (B(t_i)-B(t_{i-1}))  \le t \max(B(t_i) - B(t_{i-1}))

と評価されて、 B(t) は連続であるから分割を細かくすると右辺が 0 に収束する。

第三式は

 \sum_{i=1}^{m} (t_i - t_{i-1}) ^2 \le m \frac{t^2}{m^2} \to 0

と評価される。

脚注[編集]

  1. ^ 伊藤清 『確率論』 岩波書店、1991年 5.15 章
  2. ^ 同書 5.16 章
  3. ^ 同書定理 5.38
  4. ^ 同書補題 5.11