Good–Turing推定

出典: フリー百科事典『ウィキペディア(Wikipedia)』

Good–Turing推定 (英語: Good–Turing frequency estimation) は、これまでに観測されていない種の対象に遭遇する確率を、異なる種の対象 (有限個だが総数は不明) についての過去の観測情報から推定するための統計的手法である。壺から玉を取り出すことを考えると、「対象」はボールに対応し、「種」は玉の色に対応する。赤色の玉  黒色の玉  緑色の玉  を引いたあとに、次に赤色の玉、黒色の玉、緑色の玉、あるいはこれまでに観測していない色の玉が出る確率はいくつか、というのがここでの問題である。

歴史[編集]

Good–Turing推定はアラン・チューリング (Alan Turing) と彼の助手I. J. グッド (I. J. Good)により、第二次世界大戦ブレッチリー・パーク (Bletchley Park)におけるドイツ軍のエニグマ暗号を解読する試みの中で提案された。チューリングははじめ頻度を多項分布でモデル化したが、そのモデルは不正確だとわかった。グッドはその推定法の精度を改善すべく、平滑化アルゴリズムを考案した。

その発見はグッドにより1953年に公開され、多大な注目をあつめることとなった[1] 。しかしその計算は難しく、それほど広く使用されることはなかった[2] 。ただ、グッドの手法はロバート・ハリス (Robert Harris) の小説『暗号機エニグマへの挑戦 (Enigma)』により文学的な名声をいくらか得ることとなった。

1990年代、Geoffrey SampsonはAT&TのWilliam A. Galeと共に、次に述べるシンプルで使いやすいGood–Turing推定の手法を考案、実現した[3]non-primary source needed

方法[編集]

まず、表記と必要なデータ構造を以下のように定義する:

  • 観測された種の総数を X とする。観測されたそれぞれの種を x = 1, ..., X と番号付けする。
  • 頻度ベクトル R を、観測された種 x の個体数 Rx を要素に持つベクトルとして定義する。
  • 頻度ベクトル中の頻度  を、ベクトル R 中の r の頻度、つまり r に一致する要素 Rx の個数により定義する。

例えば  は1つしか個体が観測されなかった種の数を表す。ここで、対象の総個体数 N は次のように表される。

計算の最初のステップは、未観測の種の総確率を推定することである。その推定値は次式である[4]

次のステップは、 r 回観測された種の確率の推定値を求めることである。それぞれの種に対する確率の推定値は次である:

このグループ (r 回観測された種のグループ) のいずれかの種と遭遇する確率を推定するためには、次の式を計算すればよい:

ここで  はカッコ内の頻度が平滑化あるいは調整された値であることを意味する (empirical Bayes methodも参照)。この平滑化を行う方法について、概要を次に述べる。

 の関係をプロットしたいとする。しかしこれは r が大きくなれば多くの  がゼロになってしまうため、問題がある。代わりに、修正された数  を  に対してプロットする。ここで Zr は次で定義される。

そしてここで q、 r そして t は非ゼロである  を持つ三連続の添字である。r が1のとき、qは0とする。r が最後の非ゼロの頻度であるときは t を 2r − q とする。

Good–Turing推定はそれぞれの種の出現回数が二項分布に従うことを仮定している[5]

そして両対数グラフに対して線形単回帰 (simple linear regression) を行う。小さい r に対しては、 (つまり、平滑化を行わない) としてよい。一方で大きい r に対しては、 の値は回帰線から取る。(ここでは記述しないが) 自動的な手続きによってどの点でその平滑化無しから線形平滑化への切替が行われるべきかを特定することができる[6] 。その手法のソースコードはパブリックドメインで使用可能である[7]

関連項目[編集]

参考文献[編集]

  1. ^ Good, I.J. (1953). “The population frequencies of species and the estimation of population parameters”. Biometrika 40 (3–4): 237–264. doi:10.1093/biomet/40.3-4.237. JSTOR 2333344. MR61330. 
  2. ^ Newsise: Scientists Explain and Improve Upon 'Enigmatic' Probability Formula, a popular review of Orlitsky A, Santhanam NP, Zhang J. (2003). “Always Good Turing: asymptotically optimal probability estimation.”. Science (New York, N.Y.). 302 (5644): 427–31. doi:10.1126/science.1088284. 
  3. ^ Sampson, Geoffrey and Gale, William A. (1995) Good‐turing frequency estimation without tears
  4. ^ Gale, William A. (1995). “Good–Turing smoothing without tears”. Journal of Quantitative Linguistics 2: 3. doi:10.1080/09296179508590051. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.110.8518. 
  5. ^ Lecture 11: The Good–Turing Estimate.
  6. ^ Church, K and Gale, W (1991). A comparison of the enhanced Good–Turing and deleted estimation methods for estimating probabilities of English bigrams. 
  7. ^ Sampson, Geoffrey (2005) Simple Good–Turing Frequency Estimator (code in C)