赤池情報量規準

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索

赤池情報量規準(あかいけじょうほうりょうきじゅん; 元々は An Information Criterion, のちに Akaike's Information Criterionと呼ばれるようになる)は、統計モデルの良さを評価するための指標である。単に AIC とも呼ばれ、この呼び方のほうが一般的である。統計学の世界では非常に有名な指標であり、多くの統計ソフトに備わっている。元統計数理研究所所長の赤池弘次が1971年に考案し1973年に発表した[1]

AICは、「モデルの複雑さと、データとの適合度とのバランスを取る」ために使用される。例えば、ある測定データを統計的に説明するモデルを作成することを考える。この場合、パラメータの数や次数を増やせば増やすほど、その測定データとの適合度を高めることができる。しかし、その反面、ノイズなどの偶発的な(測定対象の構造と無関係な)変動にも無理にあわせてしまうため、同種のデータには合わなくなる(過適合問題、Overfitting)。この問題を避けるには、モデル化のパラメータ数を抑える必要があるが、実際にどの数に抑えるかは難しい問題である。AICは、この問題に一つの解を与える。具体的にはAIC最小のモデルを選択すれば、多くの場合、良いモデルが選択できる[2]

公式は次の通りである。

\mathrm{AIC} = - 2 \ln L + 2 k\,

ここでLは最大尤度kは自由パラメータの数である。

式の変形[編集]

AICは他にもさまざまな形で表される。

パラメータの数として局外変数(誤差の大きさを表すパラメータ)を数えない流儀があり、その場合、

\mathrm{AIC} = - 2 \ln L + 2 (K + 1)\,
\mathrm{AIC} = - 2 \ln L + 2 K\,

となる。ここでは区別のため大文字の K を使ったが、通常は双方の「パラメータ数」の表現にはっきりした使い分けはない。AICはモデル間の互いの差のみが意味を持つため、定数項は無視し、2行目のように定義することもある。式の見かけは冒頭の式と同じだが、値は異なる。

各標本の誤差項が独立で確率分布正規分布の場合、

\mathrm{AIC} = \sum_{i=0}^n \ln (2 \pi \sigma_i^2) + 2 = \sum_{i=0}^n \ln \sigma_i^2 + 2 k + n \ln 2 \pi \,
\mathrm{AIC} = \sum_{i=0}^n \ln \sigma_i^2 + 2 k\,

と表せる。n は標本サイズ、σi は各標本の標準誤差である。2行目は、定数項を省略した値である。

それに加えさらに、各標本の標準誤差が等しい場合は、

\mathrm{AIC} = n \ln (2 \pi \sigma^2) + 2 k = n \ln \sigma^2 + 2 k + n \ln 2 \pi \,
\mathrm{AIC} = n \ln \sigma^2 + 2 k\,

とまで単純化できる。

有限修正[編集]

AICは導出に漸近理論を使っているため、標本サイズ無限を仮定している。そのため、標本サイズが小さい場合(およそ数十程度まで)ではその仮定が成り立たず、偏りが生じる。具体的には、AIC最小化によるモデル決定はパラメータ数を過大に見積もってしまう。これに対する対策を「AICの有限修正」と呼ぶ。

N. Sugiura (1978) は漸近理論を使わない不偏推定量であるc-AICを導出した[3]

\textrm{c-AIC} = - 2 \ln L + \frac {2 k n} {n - k - 1} = \mathrm{AIC} + \frac {2 k (k + 1)} {n - k - 1}

ここでnはサンプル数である。nが大きくなるにつれてc-AICは、AICへと収束してゆく。

n は小さくはなくても k / n が大きい(1に比べ十分に小さくない)場合には、一致性が成立せず、AICはやはり過大にパラメータ数を見積もる。このような場合にも、c-AICは正しい結果を出す。

ただし、c-AICは漸近理論を使わない代わりに、誤差項が正規分布の一般化線形モデルを仮定している。そのため、それ以外の、たとえば誤差項が二項分布のモデルなどに使うことはできない。

他の基準との比較[編集]

しかし、AIC最小のものを選択すれば常に最良であるかと言うと一概にはそう言えない。そのため、AICの後、モデル選択基準として、BIC、CIC、EIC、GIC、PIC、TICなど多くの基準が提案されている。xICという名称のモデル以外では、MDLHQなどがある。

このうち、BIC(ベイズ情報量規準)、MDL(Minimum Description Length; 最小記述長)が特に有名である。ベイズモデルの予測力を測る基準として、1980年には赤池ベイズ情報量基準(ABIC)も提案され、広く用いられている。

また、GICは一般化情報量規準(Generalized Information Criterion)で、統計的汎関数に基づいて提案された情報量規準である[4]

参考文献[編集]

  1. ^ Akaike, H., "Information theory and an extension of the maximum likelihood principle", Proceedings of the 2nd International Symposium on Information Theory, Petrov, B. N., and Caski, F. (eds.), Akadimiai Kiado, Budapest: 267-281 (1973).
  2. ^ 坂元慶行, 石黒真木夫, 北川源四郎, 情報量統計学, 共立出版 (1983).
  3. ^ Nariaki Sugiura, "Further analysts of the data by akaike' s information criterion and the finite corrections", Communications in Statistics - Theory and Methods, 7(1), pp. 13-26 (1978).
  4. ^ Konishi, S. and Kitagawa, G. "Generalised information criteria in model selection", Biometrika 83, 875–890 (1996).

関連項目[編集]

外部リンク[編集]