逆問題

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索

逆問題(ぎゃくもんだい、Inverse problem)とは、応用数学の一分野であり、順問題(じゅんもんだい、Direct problem)と対になる。入力(原因)から出力(結果、観測)が求められる問題を順問題といい、その逆に出力から入力を推定する問題を逆問題という。

研究の発端は、弾道計算レーダー探査など、軍事上の目的が主であり、第二次世界大戦中に急速に発展した。現在では、非破壊検査医療を目的とした利用も盛んに研究されている。

概要[編集]

順問題と逆問題は対になる概念であり、どちらが順でどちらが逆かというのは相対的な問題である。一般に、古くから問題として認識され研究が行われている方を順問題とし、その逆のプロセスを解くことで何らかの工学的・その他の利用ができる方を逆問題とする。

単純な順問題・逆問題の例を示す。数列 an = n2 を考えたとき、n = 1 で an = 1、n = 2 で an = 4、n = 3 で an = 9 となる。この計算を順問題とした場合、逆問題は、a1 = 1、a2 = 4、a3 = 9 というデータから、一般項 an を推定することである。

逆問題は入力を求める、と一口に言っても、ここでの「入力」とは単に入力信号のようなものだけを指すのではない。例えば、物理学・工学で材料に関する問題においては、扱う材料に作用している外力を求める逆問題だけでなく、

  • 材料の境界・領域形状を求める
  • 材料を支配している方程式を求める
  • 材料についての境界値あるいは初期値を求める
  • 材料の物性値を求める

といった、複数の逆問題が存在する。様々な問題設定があるように、様々な有益な用途があり、理論・実用の両面から研究が行われている。

適切性と非適切な問題[編集]

逆問題を解く際によく問題になるのが適切性 (良設定問題、well-posedness) である。次の3つの条件が満たされるとき、アダマールの意味で適切であるという。

  1. 解の存在性: 解が存在すること
  2. 解の一意性: 解がただ一つであること
  3. 解の安定性: 入力に微小な変動を与えたときに、出力の変動も微小であること

上に挙げた数列の例で、逆問題には an = n2 のほか、例えば an = n3-5n2+11n-6 も解となり、解の一意性が満たされない。よって、非適切 (ill-posed) な問題といえる。

その他、微分方程式積分方程式などに関する逆問題では解の安定性が得られず非適切な問題となることが多い。

ティホノフの正則化法[編集]

非適切な問題の近似解を得る手法として最もよく使われるのがティホノフの正則化法 (Tikhonov's regularization method) である。

線形有界作用素 K : XY についての方程式 Kx = y の近似解を得るために、ティホノフ汎関数

J_\alpha(x) = \|Kx-y\|^2+\alpha\|x\|^2  for xX  α:正則化パラメータ

を導入し、これを最小にする xαX を求める。

近似解を真の解に近づけるためには、正則化パラメータ α を誤差 η = (δ, h) に応じて次のように設定すればよいといわれている:

\mu_\eta(K_h, y_\delta) = \inf_{x \in D} \|K_h x-y_\delta\|_Y

という汎関数を設定し、

\rho_\eta^\kappa(\alpha) = \|K_h x_\eta^\alpha-y_\delta\|_Y^2 - (\delta+h\|x_\eta^\alpha\|_X)^2 - \mu_\eta^\kappa(K_h, y_\delta)^2

について、ρηκ (α*) = 0 となるような α* (η) を選ぶ。

実装[編集]

実際の逆問題では、N 個の誤差のある観測値 y1, y2, \ldots, yN から、M 個のパラメタ x1, x2, \ldots, xM を推定するという問題設定が多い。観測不可能な真の値 xi と、観測値 yμ は、線形の関係があると仮定される。

 y_i = \sum_\mu K_{i\mu} x_\mu + n_i

ここで、Ki μ は分かっているものとする。ノイズ ni は観測不可能だが、その統計的性質として平均 0 と、共分散

 S_{ij} = E(n_i n_j)

は分かっているものとする。ここで、E() は統計平均を取る操作。

もし、観測が全て独立でその数 N が、パラメタの数 M より多ければ、最小自乗法で、x の推定値を求めることができる。しかし、観測が独立でなかったりその数がパラメタの数より少ないとき、x を求める問題は劣決定となり、上記適切性のうち解の一意性が満たされない非適切な問題となる。よって、その問題に即した適当な正則化を行って、解を求める必要がある。

式で書けば、ノイズを最小にするには

J = \sum^N_{i=1} \sum^N_{j=1} n_i S^{-1}_{ij} n_j

あるいは、行列表示して


J = \textbf{n}^T\textbf{S}^{-1}\textbf{n}
= (\textbf{K}\textbf{x} - \textbf{y})^T\textbf{S}^{-1}(\textbf{K}\textbf{x} - \textbf{y})

(上付き添字 T転置行列を表す)なる J を最小にする x を決める問題になるが、行列 K は行より列が多く、Kx=y の解が無数にあるという状況になる。そのため、正則化を行って解をひとつに定める。以下にいくつかの正則化の方法を紹介する。以下の議論で本質的に重要でないため、ノイズは分散 1 でそれぞれ無相関なものとする(つまり、S=単位行列)。

零次の正則化[編集]

正則化パラメタ α を用いて、

 J = (\textbf{K}\textbf{x} - \textbf{y})^T(\textbf{K}\textbf{x}-\textbf{y}) + \alpha \textbf{x}^T \textbf{x}

と取る。つまり、無数の解のうち x の大きさを小さくにするものを推定値として採用する。α が小さいとき、これは Kx=y特異値分解で解いた解と一致する。パラメタ α の取り方は問題設定によって異なる。一例としては、観測誤差が正規分布に近いと期待される場合、第一項は自由度 Nカイ二乗分布となることが期待され、その平均値は N となる。よって、第一項が N に近くなるように α を調整する。

線形の正則化[編集]

x の大きさより、滑らかさが重要なときは、x_{i+1}-x_i を第二項にした

 J = (\textbf{K}\textbf{x} - \textbf{y})^T(\textbf{K}\textbf{x}-\textbf{y}) + \alpha (\textbf{Bx})^T \textbf{Bx}

を最小にするような x を定める。 ここに、B


\begin{bmatrix}
-1 & 1 & 0 & \ldots & 0 \\
0  & -1 & 1 & \ldots & 0 \\
\vdots & & \ddots & & \vdots \\
0 & 0 & \ldots & -1 & 1
\end{bmatrix}

なる成分を持つ。

同様に x が線形に増加すると期待されるとき、x が二次関数的に増加すると期待されるとき、なども適当な B を設定することで解くことができる。

バッカス=ギルバート法[編集]

上の二つの正則化もそうであったが、x の推定値 \hat{\textbf{x}} は観測値の線型結合で表されている。

 \hat{\textbf{x}} = \textbf{L} \textbf{y}

観測値 y は、真の値をノイズ付きで観測したものだから、y の定義式を代入して

 \hat{\textbf{x}} = \textbf{L}(\textbf{K}\textbf{x} + \textbf{n})

KNM 列( N < M )だから、逆行列は存在しないが、ノイズがなければ、よい観測は \hat{\textbf{x}}=\textbf{x} となるはずである。そこで、LK=IL を定めればよさそうである。すなわち、行列 LK の成分 {LK}ijクロネッカーのデルタ δij になれば理想的である。しかし、実際にはノイズがあるからこのようにはならない。そこで、クロネッカーのデルタにできるだけ形の近いものになるようにする。バッカスとギルバートは LK の行ベクトルのクロネッカーのデルタからのずれ、

 \sum_{j=1}^N (i-j)^2(\{LK\}_{ij}-\delta_{ij})^2

を最小にすれば良いと考えた。これが最小化関数 J の第一項となる。

正規化のための第二項は、多数の観測で得られたパラメタ推定値のばらつきが少ないという条件を用いる。観測値のばらつき(ノイズ)は n だから、

 \textbf{L}E(\textbf{n}\textbf{n}^T)\textbf{L}^T

が最小化関数 J の第二項となる。

正則化項の意味[編集]

劣決定な逆問題では、与えられたデータ y だけでは拘束条件 Kx=y を満たす推定パラメタ x が一意に決まらないため、正則化項 R を第二項に加えた

 J = (\textbf{K}\textbf{x} - \textbf{y})^T(\textbf{K}\textbf{x}-\textbf{y}) + \textbf{R}

を最小にする x を求めた。第二項には第一項に含まれていない情報が付加されている。上記の例では、「推定パラメタはほとんど零である」や「推定パラメタはばらつきが少ない」などである。その情報は、問題が与えられる前にすでに期待されていることだから、先験情報(あるいは事前情報)と呼ばれる。これに対応させて、第一項を事後情報ととらえ、逆問題をベイズ統計学の観点から考えることもできる。

一般に、第一項はデータのノイズに敏感で、推定パラメタに大きな変動や空間スケールの小さな構造をもたらす。一方、第二項は推定パラメタを滑らか・安定にする働きをもつ。問題に応じて、第一項と第二項の比は(ときに主観的に)決められる。

逆問題でよく扱われる方程式・解析手法[編集]

逆問題を応用した分野[編集]

関連項目[編集]

参考文献[編集]

  • 久保司郎『逆問題』計算力学とCAEシリーズ 10、培風館 1992年 ISBN 4-563-03385-5
  • 登坂宣好、大西和榮、山本昌宏『逆問題の数理と解法―偏微分方程式の逆解析』東京大学出版会 1999年 ISBN 4-13-062906-9
  • 堤正義『逆問題の数学』共立出版 2000年 ISBN 4-320-01656-4
  • W.メンケ著柳谷俊・塚田和彦訳『離散インバース理論』古今書院 1997年 ISBN 4-7722-1558-1
  • Andreas Kirsch『An Introduction to the Mathematical Theory of Inverse Problems』Applied Mathematical Sciences 120, Springer 1996年 ISBN 0-387-94530-X
  • W. Press et al.『Numerical Recipes in C』 2nd Ed, Camridge University Press, 1992, 特に 18 章。ISBN 0-521-43108-5