偏りと分散

出典: フリー百科事典『ウィキペディア(Wikipedia)』
ナビゲーションに移動 検索に移動

偏りと分散バイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、: bias–variance tradeoff)とは、統計学機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。

バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習アルゴリズムが訓練データの内容を超えて汎化する際の課題となる。

バイアス(偏り
学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。
バリアンス(分散
誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。

バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。

バイアス-バリアンスのトレードオフは、全ての教師あり学習で生じる。人間の学習において、人間がヒューリスティクスを使用することの有効性の説明にも使用されている[1]

日本語での訳語[編集]

統計学では通常 bias は偏り、variance は分散と翻訳するが、この文脈ではバイアスとバリアンスとカタカナで表記されることが多い。書籍『パターン認識と機械学習』の翻訳者はバイアス-バリアンスと訳し[2]、書籍『統計的学習の基礎』の翻訳者はバイアス-分散と訳した[3]

二乗誤差のバイアス-バリアンス分解 [編集]

データとして入力 があり、出力は とする。真の関数 が存在し、 は平均0分散 のノイズである。

真の関数 を可能な限り近似した を推定したいとする。可能な限りの意味として、ここでは二乗誤差 を訓練データだけでなく、全てのデータにおいて最小化したいとする。ここで はノイズ を含んでいるので、原理上、完璧に推定することは不可能である。

訓練データから を推定する教師あり学習アルゴリズムは無数にあるが、どのアルゴリズムであっても、二乗誤差の期待値は以下のように分解できる。

導出[編集]

二乗誤差のバイアス-バリアンス分解は以下のように導出できる[4][5] および と簡略に表記する。分散の定義より、

これを式変形すると下記になる。

f は決定論的なので、

より

より

は独立なので、以下のように式変形できる。

手法[編集]

次元削減特徴選択はモデルを簡単にすることによりバリアンスを減らせる。訓練データを増やすこともバリアンスを減らせる。特徴量を追加することはバイアスを減らす傾向にあるが、バリアンスの追加が犠牲となる。

学習アルゴリズムはバイアスとバリアンスのバランスを調整するパラメータがあることが多い。以下はその例。

  • 線形モデルや一般化線形モデルでは、正則化により、バリアンスを減らしバイアスを増やせる[6]
  • ニューラルネットワークでは、隠れ層を大きくすることで、バリアンスを増やしバイアスを減らせる。一般化線形モデル同様、正則化も使える。[7]
  • k近傍法では、kを増やすことで、バリアンスを減らしバイアスを増やせる。
  • 決定木では、木の深さでバリアンスを調整できる。[8]:307

バイアス-バリアンスのトレードオフを解決する1つの方法は、混合モデルアンサンブル学習である[9][10]。例えば、ブースティングでは複数の弱学習器(バイアスが大きい)を組み合わせることでバイアスを下げることができ、バギングでは強学習器を組み合わせることでバリアンスを減らせる。

人間の学習への適用[編集]

バイアス-バリアンスのジレンマは機械学習の文脈で広く議論されているが、人間の認知の文脈でも検討されていて、Gerd Gigerenzer 等による学習ヒューリスティクスの研究がある。経験がまばらであまり特徴付けられていない状況で、高バイアス低バリアンスのヒューリスティクスにて、このジレンマを解決して、人間の脳は学習していると主張している。バイアスが小さすぎる学習手法は、新しい状況への汎化能力が乏しく、世界の真の状態を不適切に推定する、という事実を反映している。これらのヒューリスティクスは相対的に簡単であるが、多くの状況に対してより良い推定をもたらす。[1]

Stuart Geman 等は[7]、一般物体認識をゼロから学習することは不可能であり、ある種の"固い配線"があり、それを経験により調整する形が必要であるということを、バイアス-バリアンスのジレンマは意味していると主張している。なぜなら、高バリアンスを避けるために、自由すぎるモデルは非現実的なほどの大量の訓練データを必要とするからである。

参照[編集]

  1. ^ a b Gigerenzer, Gerd; Brighton, Henry (2009). “Homo Heuristicus: Why Biased Minds Make Better Inferences”. Topics in Cognitive Science 1: 107–143. doi:10.1111/j.1756-8765.2008.01006.x. PMID 25164802. 
  2. ^ C.M. ビショップ『パターン認識と機械学習』丸善出版、2012年。ISBN 4621061224
  3. ^ Trevor Hastie『統計的学習の基礎』共立出版、2014年。ISBN 432012362X
  4. ^ The Bias–Variance Tradeoff”. University Edinburgh (2007年). 2014年8月19日閲覧。
  5. ^ Shakhnarovich, Greg (2011年). “Notes on derivation of bias-variance decomposition in linear regression”. 2014年8月21日時点のオリジナルよりアーカイブ。2014年8月20日閲覧。
  6. ^ Belsley, David (1991). Conditioning diagnostics : collinearity and weak data in regression. New York: Wiley. ISBN 978-0471528890. 
  7. ^ a b Geman, Stuart; E. Bienenstock; R. Doursat (1992). “Neural networks and the bias/variance dilemma”. Neural Computation 4: 1–58. doi:10.1162/neco.1992.4.1.1. http://web.mit.edu/6.435/www/Geman92.pdf. 
  8. ^ Gareth James; Daniela Witten; Trevor Hastie; Robert Tibshirani (2013). An Introduction to Statistical Learning. Springer. http://www-bcf.usc.edu/~gareth/ISL/. 
  9. ^ Jo-Anne Ting, Sethu Vijaykumar, Stefan Schaal, Locally Weighted Regression for Control. In Encyclopedia of Machine Learning. Eds. Claude Sammut, Geoffrey I. Webb. Springer 2011. p. 615
  10. ^ Scott Fortmann-Roe. Understanding the Bias–Variance Tradeoff. 2012. http://scott.fortmann-roe.com/docs/BiasVariance.html

関連項目[編集]