GMRES法

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索

数学において、GMRES法generalized minimal residual method)は、連立一次方程式の数値解を求めるための反復法の一種である。残差をクリロフ部分空間において最小化することにより、近似解を計算する。ベクトルの計算にはアーノルディ法が用いられる。ヨセフ・サードとマルティン・H・シュルツにより、1986年に開発された[1]

解法[編集]

解くべき方程式を

 Ax = b. \,

とする。ただし行列Aは正則なm次正方行列、bは正規化された(ユークリッドノルム||·||に関して||b|| = 1となる)ベクトルとする。

この問題のn次クリロフ部分空間は

 K_n = \operatorname{span} \, \{ b, Ab, A^2b, \ldots, A^{n-1}b \}. \,

である。GMRES法では、残差Axnbを最小化するベクトルxnKnによって、Ax = bの厳密解を近似する。

b, Ab, …, An−1bは線形従属に近いため、これを用いる代わりに、アーノルディ法を用いてKnの基底を構成する正規直交化ベクトル列

 q_1, q_2, \ldots, q_n \,

を計算する。すなわち、xnKnynRnを用いてxn = Qnynと書くことができる。ただしQnq1, …, qnにより構成されるm×n行列とする。

アーノルディ過程では、

 AQ_n = Q_{n+1} \tilde{H}_n

を満たす(n+1)×n次上ヘッセンベルグ行列\tilde{H}_nが生成される。Q_nは直交行列なので、

 e_1 = (1,0,0,\ldots,0) \,

を標準基底Rn+1の第1ベクトルとして、

 \| Ax_n - b \| = \| \tilde{H}_ny_n - e_1 \|

が成り立つ。したがって、x_nは残差

 r_n = \tilde{H}_n y_n - e_1.

のノルムを最小化することにより計算できる。これはn次の線形最小二乗問題である。

以上からGMRES法のアルゴリズムが得られる。すなわち、以下の反復を実行する。

  1. アーノルディ法を1ステップ計算する
  2. ||rn||を最小化する y_n を見つける
  3.  x_n = Q_n y_n を計算する
  4. 残差が十分小さくなるまでこれを繰り返す

各反復で、行列ベクトル積Aqnを計算する必要がある。これはm次の一般密行列では約2m2回の浮動小数点数演算を要するが、疎行列ではO(m)とすることができる。行列ベクトル積の他に、第nステップの計算にはO(n m)の浮動小数演算が必要である。

収束特性[編集]

nステップでは、クリロフ部分空間Kn内での残差が最小化される。部分空間は常に次の部分空間に含まれるので、残差は単調に減少する。Aの次数をmとすると、m回目の反復の後ではクリロフ部分空間KmRmと等しいので、GMRES法は厳密解に到達する。しかし、アイデアの骨子は、(mと比較して)少ない回数の反復でベクトルxnが十分な解の近似になる点にある。

一般にはこれは成り立たない。実際、Greenbaum・Pták・Strakošの定理によれば、任意の単調減少列a1, …, am−1am = 0について、上で定義されたrnに関して、すべてのnで||rn|| = anとなるような行列Aを見つけることができる。特に、m − 1回の反復で一定の値を保ちながら、最後の1反復で残差が0になるような行列を見つけることができる。

ただ、実際にはGMRES法は良い性能を示すことも多い。これは特定の場合に証明できる。Aが正定値なら、\lambda_{\mathrm{min}}\lambda_{\mathrm{max}}をそれぞれ最小、最大固有値として、

 \|r_n\| \leq \left( 1-\frac{\lambda_{\mathrm{min}}(A^\top + A)}{2 \lambda_{\mathrm{max}}(A^T + A)} \right)^{n/2} \|r_0\|

が成り立つ。

Aが対称正定値なら、\kappa_2(A)Aのユークリッドノルムでの条件数として、

 \|r_n\| \leq \left( \frac{\kappa_2^2(A)-1}{\kappa_2^2(A)} \right)^{n/2} \|r_0\|

が成り立つ。

Aが正定値でない場合には、Pnp(0) = 1を満たす高々n次の多項式集合、VAのスペクトル分解に現れる行列、σ(A)をAのスペクトルとして、

 \|r_n\| \le \inf_{p \in P_n} \|p_n(A)\| \le \kappa_2(V) \inf_{p \in P_n} \max_{\lambda \in \sigma(A)} |p(\lambda)|

を得る。おおざっぱに言えば、これはAの固有値が0から遠くかつ密集しており、Aが正規行列からそれほど離れていない場合に、速く収束することを意味している[2]

これらの不等式は誤差、つまり現在の反復ベクトルxnと真の解との距離ではなく、残差に関するものである。

解法の拡張[編集]

前処理[編集]

他の反復法と同様に、GMRES法も通常は収束を速める目的で前処理と組み合わせて使用される。

リスタート[編集]

nを反復回数として、反復のコストはO(n2)である。すなわち、nとして、連立方程式の本数Nを用いると、直接解法と同程度の求解コストがかかることになる。したがって、GMRES法ではk回の反復の後に、xkを初期ベクトルとして、リスタートを行うことがある。これをGMRES(k)と呼ぶ。しかしながら、リスタートを行うと、収束は非常に遅くなることが知られている。

Flexible GMRES法[編集]

前処理をより効率的に行えるよう、アルゴリズムに変更を加えた手法である。前処理に反復解法を用いることができる(前処理にGMRES自身を用いるなど)。

他の解法との比較[編集]

アーノルディ法は対称行列の場合にはランチョス法に帰着する。対応するクリロフ部分空間法はPaige・SaundersによるMINRES法(minimal residual method)である。非対称な場合と異なり、MINRES法は3項漸化式で与えられる。一般行列の場合には、GMRES法のように短い漸化式で残差ノルムを最小化するようなクリロフ部分空間法は存在しないことが知られている。

別な系統として、非対称ランチョス法、特に双共役勾配法に基づく解法がある。これらは3項漸化式を用いるが、最小残差は計算しない。したがって残差は単調には減少せず、収束も保証されない。

さらに、CGS法(conjugate gradient squared method)やBiCGSTAB法(stabilized biconjugate gradient method)などによる解法がある。これらも3項漸化式に基づいているため、最適性は保証されず、解に収束する前に終了することがある。これらの解法のアイデアは、反復毎の生成多項式を適切に選択する点にある。

これらのいずれも、すべての行列に対して万能というわけではない。したがって、実際には与えられた問題に対して複数の解法を試みる必要がある。

最小二乗問題の求解[編集]

GMRES法では、

 \| \tilde{H}_n y_n - e_1 \|

を最小化するベクトルy_nを見つける必要がある。 これはQR分解を計算することで実現できる。すなわち、

 \Omega_n \tilde{H}_n = \tilde{R}_n.

を満たすn+1次正方直交行列Ωnn+1×n次上三角行列\tilde{R}_nを計算する。三角行列の行数は列数より1多いので、最下行はすべて零である。したがって、R_nn×n次三角行列として、これを

 \tilde{R}_n = \begin{bmatrix} R_n \\ 0 \end{bmatrix},

と分解することができる。

QR分解は、零の行と1列分の値が異なるだけなので、簡単に更新することができる。つまりhn = (h1n, … hnn)Tとして

\tilde{H}_{n+1} = \begin{bmatrix} \tilde{H}_n & h_n \\ 0 & h_{n+1,n} \end{bmatrix}

が成り立つので、

 \begin{bmatrix} \Omega_n & 0 \\ 0 & 1 \end{bmatrix} \tilde{H}_{n+1} = \begin{bmatrix} R_n & r_k \\ 0 & \rho \\ 0 & \sigma \end{bmatrix}

は三角行列に近く、σが0であれば三角行列である。これを更新するためには、: c_n = \frac{\rho}{\sqrt{\rho^2+\sigma^2}} \quad\mbox{and}\quad s_n = \frac{\sigma}{\sqrt{\rho^2+\sigma^2}} としてギブンス回転

 G_n = \begin{bmatrix} I_{n-1} & 0 & 0 \\ 0 & c_n & s_n \\ 0 & -s_n & c_n \end{bmatrix}

を行えばよい。これにより、

 \Omega_{n+1} = G_n \begin{bmatrix} \Omega_n & 0 \\ 0 & 1 \end{bmatrix}

を得る。

 \Omega_{n+1} \tilde{H}_{n+1} = \begin{bmatrix} R_n & r_n \\ 0 & r_{nn} \\ 0 & 0 \end{bmatrix} \quad\text{with}\quad r_{nn} = \sqrt{\rho^2+\sigma^2}

は三角行列である。

QR分解が与えられると、最小化問題は

 \| \tilde{H}_n y_n - e_1 \| = \| \Omega_n (\tilde{H}_n y_n - e_1) \| = \| \tilde{R}_n y_n - \Omega_n e_1 \|

から容易に解くことができる。実際、gnRn、γnRとして、ベクトル\Omega_ne_1

 \tilde{g}_n = \begin{bmatrix} g_n \\ \gamma_n \end{bmatrix}

と表すと、これは

 \| \tilde{H}_n y_n - e_1 \| = \| \tilde{R}_n y_n - \Omega_n e_1 \| = \left\| \begin{bmatrix} R_n \\ 0 \end{bmatrix} y - \begin{bmatrix} g_n \\ \gamma_n \end{bmatrix} \right\|

と書ける。これを最小化するベクトルy

 y_n = R_n^{-1} g_n

で与えられる。g_nの更新も容易に行うことができる[3]

補足[編集]

  1. ^ Saad and Schultz
  2. ^ Trefethen & Bau, Thm 35.2
  3. ^ Stoer and Bulirsch, §8.7.2

参考文献[編集]