自己回帰移動平均モデル

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索

自己回帰移動平均モデル(じこかいきいどうへいきんモデル、: Autoregressive moving average modelARMAモデル)は、統計学において時系列データに適用されるモデルである。George Box と G. M. Jenkins の名をとって "ボックス・ジェンキンスモデル" とも呼ばれる。

時系列データ Xt について、ARMAモデルはその将来の値を予測するためのツールとして機能する。モデルは自己回帰(AR)部分と移動平均(MA)部分からなる。一般に ARMA(p,q)モデルと表記され、p は自己回帰部分の次数、q は移動平均部分の次数を表す(定義は後述)。

自己回帰モデル[編集]

AR(p) という表記は次数 p の自己回帰モデルを表す。AR(p)モデルは次の式で表される。

 X_t = c + \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t .\,

ここで\varphi_1, \ldots, \varphi_pはモデルのパラメータc は定数項、\varepsilon_t は誤差項(後述)である。定数項は単純化するために省かれることが多い。

自己回帰モデルは基本的に無限インパルス応答フィルタに一種の変形を加えたものである。

モデルとして定常的であるために、パラメータの値には何らかの制約が必要である。例えば、|φ1| > 1 となる AR(1)モデルは定常的ではない。

例: AR(1)過程[編集]

AR(1)過程は次の式で表される。

X_t = c + \varphi X_{t-1}+\varepsilon_t,\,

ここで、\varepsilon_t は、\sigma^2の分散に従うホワイトノイズである(\varphi_1 のような添え字は省いてある)。この過程は |\varphi|<1 であれば、共分散定常性を有する。\varphi=1 であれば、X_t単位根を表し、ランダムウォークと見なされ、共分散定常性を有しない。そうでない場合、X_t の期待値の計算は単純である。ここで共分散定常性を以下のように定式化する。

\mbox{E}(X_t)=\mbox{E}(c)+\varphi\mbox{E}(X_{t-1})+\mbox{E}(\varepsilon_t)\Rightarrow \mu=c+\varphi\mu+0.

従って、次のようになる。

\mu=\frac{c}{1-\varphi},

ここで \mu は平均である。c = 0 なら、平均も 0 になり、分散は次のようになる。

\textrm{var}(X_t)=E(X_t^2)-\mu^2=\frac{\sigma^2}{1-\varphi^2}.

自己共分散は次の式で表される。

B_n=E(X_{t+n}X_t)-\mu^2=\frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|n|}.

この自己共分散関数は減衰時間 \tau=-1/\ln(\varphi) で減衰する(これを確かめるには、B_n=K\phi^{|n|}Kn に独立な場合を考えればよい。\phi^{|n|}=e^{|n|\ln\phi} であり、指数関数的減衰の法則 e^{-n/\tau} に適合することに注意されたい)。スペクトル密度関数は自己共分散関数の逆フーリエ変換である。離散系では、離散時間逆フーリエ変換が適用される。

\Phi(\omega)=
\frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n}
=\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma^2}{1+\varphi^2-2\varphi\cos(\omega)}\right).

X_j が離散的であるため、この式の分母にあるコサインの項が折り返し雑音(エイリアス)を表している。標本化間隔(\Delta t=1)が減衰時間(\tau)より十分に小さいと仮定すると、B_n に連続体近似を適用できる。

B(t)\approx \frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|t|}

この場合、スペクトル密度はローレンツ分布に従う。

\Phi(\omega)=
=\frac{1}{\sqrt{2\pi}}\,\frac{\sigma^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}

ここで \gamma=1/\tau は減衰時間 \tau に関する角周波数である。

X_t の別の表現方法として、最初の式で X_{t-1}c+\varphi X_{t-2}+\varepsilon_{t-1} に置き換える方法がある。これを再帰的に N回繰り返すと次の式になる。

X_t=c\sum_{k=0}^{N-1}\varphi^k+\varphi^NX_{\varphi-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.

N が無限大に近づくと、\varphi^N はゼロに近づき、最終的に次の式が得られる。

X_t=\frac{c}{1-\varphi}+\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}

ARパラメータの計算[編集]

AR(p)モデルは次の方程式で与えられる。

 X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,

これはパラメータ \varphi_ii = 1, ..., p)に基づいている。これらパラメータは以下の Yule-Walker方程式で計算できる可能性がある。


\gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_m

ここで m = 0, ... , p であり、p + 1 個の方程式となる。\gamma_m は X の自己共分散関数、\sigma_\varepsilon は入力ノイズ過程の標準偏差、δmクロネッカーのデルタである。

この式の最後の部分は m = 0 のときだけ 0 でない値となるので、この方程式は一般に m > 0 のときの行列式で表すことで解ける。

\begin{bmatrix}
\gamma_1 \\
\gamma_2 \\
\gamma_3 \\
\vdots \\
\end{bmatrix} 

=

\begin{bmatrix}
\gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots \\
\gamma_1 & \gamma_0 & \gamma_{-1} & \dots \\
\gamma_2 & \gamma_{1} & \gamma_{0} & \dots \\
\dots      & \dots         & \dots       & \dots \\
\end{bmatrix} 

\begin{bmatrix}
\varphi_{1} \\
\varphi_{2} \\
\varphi_{3} \\
 \vdots \\
\end{bmatrix}

これにより \varphi が全て求められる。また、m = 0 のときは次のようになる。


\gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2

これにより \sigma_\varepsilon^2 が求められる。

導出[編集]

AR過程を定義する方程式は次の通りである。

 X_t = \sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t.\,

両辺に Xt-m をかけて、期待値を求めるとしたとき、次のようになる。

E[X_t X_{t-m}] = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right]+ E[\varepsilon_t X_{t-m}].

自己共分散関数の定義から、E[X_t X_{t-m}] =\gamma_m である。ノイズ関数の値は互いに独立であり、ゼロより大きい m について Xt − m は εt に独立である。m ≠ 0 の場合、E[\varepsilon_t X_{t-m}] = 0 となる。m = 0 の場合、次のようになる。

E[\varepsilon_t X_{t}] 
= E\left[\varepsilon_t (\sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t)\right]
= \sum_{i=1}^p \varphi_i\, E[\varepsilon_t\,X_{t-i}] + E[\varepsilon_t^2]
= 0 + \sigma_\varepsilon^2,

従って、次が得られる。

\gamma_m = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right] + \sigma_\varepsilon^2 \delta_m.

さらに

E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right]
= \sum_{i=1}^p \varphi_i\,E[X_{t} X_{t-m+i}]
= \sum_{i=1}^p \varphi_i\,\gamma_{m-i},

これにより次の Yule-Walker方程式が導かれる。

\gamma_m = \sum_{i=1}^p \varphi_i \gamma_{m-i} + \sigma_\varepsilon^2 \delta_m.

移動平均モデル[編集]

MA(q)という表記は、次数 q移動平均モデルを表す。以下の数式で表される。

 X_t = \varepsilon_t + \sum_{i=1}^q \theta_i \varepsilon_{t-i}\,

ここで θ1, ..., θq はモデルのパラメータ、εt, εt-1,... は誤差項である。移動平均モデルも無限インパルス応答フィルタに一種の変形を加えたものである。

自己回帰移動平均モデル[編集]

ARMA(p, q)という表記は、p次の自己回帰とq次の移動平均を組合わせたモデルを指す。以下の数式で表される。

 X_t = \varepsilon_t +  \sum_{i=1}^p \varphi_i X_{t-i} + \sum_{i=1}^q \theta_i \varepsilon_{t-i}.\,

誤差項[編集]

誤差項 εt は一般に「独立かつ同一の分布に従う」(i.i.d.)無作為変数であり、ゼロを平均値とする正規分布に従う。すなわち εt ~ N(0,σ2) で、σ2 は分散である。このような仮定を弱めることもあるが、そうするとモデルとしての性質が変化する。特に、i.i.d. という仮定を変更すると根本的な性質が変化する。

ラグ(遅れ)作用素を使った記法[編集]

ARMAモデルをラグ作用素(遅れ作用素) L を使って表す場合もある。この場合、AR(p)モデルは次のように表される。

 \varepsilon_t = \left(1 - \sum_{i=1}^p \varphi_i L^i\right) X_t =  \varphi X_t\,

ここで、φ は次の多項式で表される。

 \varphi = 1 - \sum_{i=1}^p \varphi_i L^i.\,

また、MA(q)モデルは次のように表される。

 X_t = \left(1 + \sum_{i=1}^q \theta_i L^i\right) \varepsilon_t = \theta \varepsilon_t\,

ここで θ は次の多項式で表される。

 \theta= 1 + \sum_{i=1}^q \theta_i L^i.\,

以上から、ARMA(p, q)モデルは次のように表される。

 \left(1 - \sum_{i=1}^p \varphi_i L^i\right) X_t = \left(1 + \sum_{i=1}^q \theta_i L^i\right) \varepsilon_t\,

あるいは、もっと簡潔に記せば、次のようになる。

 \varphi X_t = \theta \varepsilon_t.\,

ラグ作用素とは、時系列データのある時点のデータで他の時点のデータを表すように係数化したもの。上記の式はいずれも Xt しか出現しない(他の時点のデータが出てこない)ことに注意されたい。他の時点のデータは全てラグ作用素によって表されている。

実データへの適用[編集]

実データに適用する場合、ARMAモデルの p と q を選択後、誤差項を最小化するパラメータを探るため最小二乗法を使うのが普通である。また、実データに適合する最小の p および q を見つけることでよい結果が得られることが知られている。純粋なARモデルでは、これに Yule-Walker 方程式を利用することができる。

一般化[編集]

Xt の過去の値や誤差項 εt との依存関係は特に何かが判明するまで線形な関係であると見なすのが普通である。依存関係が非線形である場合、このモデルを「非線形移動平均」(NMA)、「非線形自己回帰」(NAR)、「非線型自己回帰移動平均」(NARMA)モデルと呼ぶ。

自己回帰移動平均モデルは他の方法でも一般化される。例えば、ARCH(自己回帰条件付き分散変動)モデルやARIMA(自己回帰和分移動平均)モデルがある。複数の時系列を扱うベクトルARIMAモデルもある。データに季節変動効果がある場合、SARIMA(季節ARIMA)モデルでモデル化される。

その他の一般化として、「多変量自己回帰」(MAR)モデルがある。

関連項目[編集]

参考文献[編集]

  • George Box and Gwilym M. Jenkins. Time Series Analysis: Forecasting and Control, second edition. Oakland, CA: Holden-Day, 1976.
  • Mills, Terence C. Time Series Techniques for Economists. Cambridge University Press, 1990.
  • Percival, Donald B. and Andrew T. Walden. Spectral Analysis for Physical Applications. Cambridge University Press, 1993.
  • Yoshitsugu Hayashi,Hiroshi Ohkama,Yoshitaka Fujiwara. An Estimation Method of Auto-Regressive Parameters with Time-varying Cost. Faculty of Enginnering, Kitami Institute of Technology, 1997.