線形回帰

出典: フリー百科事典『ウィキペディア(Wikipedia)』
線型回帰から転送)
移動先: 案内検索

線形回帰(せんけいかいき、linear regression)とは、統計学における回帰分析の一種である。

1つ従属変数と1つの独立変数がある線形回帰の例。

基本モデル[編集]

従属変数 Y と独立変数 Xi, i = 1, ..., p およびランダム項 e の関係をモデル化する。 モデルは下式により表される。

ここで 切片(「定数」項)、 は各々の独立変数の係数であり、 はこの線形回帰で推定される母数の個数である。線形回帰は非線型回帰と対比される。

この方法が「線形」回帰と呼ばれるのは、応答(従属変数 )が独立変数に対して線形関数(一次関数)であると仮定されるからである。しばしば誤って考えられているのは、この方法が「線形回帰」と呼ばれているのは のグラフが直線であったり、X 変数の線形関数であるからである、というものである。しかし、モデルがたとえば、

であれば、問題は「線形回帰」の問題である。つまり、x および x2 に関し線形であるので、 だけとのグラフが直線上になくても線形回帰されたのである。

歴史(未訳)[編集]

記法と命名慣習[編集]

以下の記法を用いる。

  • 変数のベクトルは太い矢印をベクトルの上に書いて表す。例:
  • 行列は太字(ボールド)体で表す。例:X
  • 母数のベクトルは太字の ß下付きをつけずに表す。

行列 Xß 列ベクトルの積は、 で表す。 従属変数 Y は回帰において「応答変数」と呼ばれる。ベクトル形式で表した独立変数は「説明変数」または「回帰変数」と呼ばれる。説明変数は「外生変数」(がいせいへんすう、exogenous variable)、「入力変数」(にゅうりょくへんすう、input variable)、「予測変数」(よそくへんすう、predictor variable)とよばれる。

ハット (hat) 記号「 」を変数の上につけると、変数や母数の推定量を表す。たとえば、 は母数ベクトル ß の推定量を表す。

線形回帰モデル[編集]

線形回帰モデルはベクトル・行列記法では下式のように表せる。

e 項はモデルの「誤差項」(誤用であるが標準的)である。本項は測定誤差であるか否かに係らず、慣習的に「誤差」と呼ばれる。本項は とは独立である。

単回帰(たんかいき、simple linear regression)の場合、説明変数は一つだけであり母数は2つである。上式は以下のようになる。

同等な定式化に、線形回帰を条件付き期待値(じょうけんつききたいち、conditional expectation)のモデルとして陽に表すものがある。

ここで、所与の x に対する y条件付き分布は誤差項の分布に一致する。

線形回帰の種類[編集]

最小二乗モデル[編集]

最小二乗分析はカール・フリードリッヒ・ガウスが1820年代に発展させた。本方法は以下のガウス―マルコフ仮定を用いる。


以上の仮定は、最小二乗法がある意味で最適な母数の推定量を与えることを意味する。

p 個の係数と回帰切片 ß0線形回帰および n データ点(標本数)を用い、  は以下のベクトル行列を、関連する標準誤差とともに与える。

または上記のベクトル・行列記法を用いて、

各データ点は , である。 n = p の場合、母数の標準誤差は算出できない。n が p より小さい場合、母数は算出できない。

母数の推定量は、

ガウス=マルコフの定理による仮定を用いると、結果を分析し、最小二乗法を用いて決定したモデルが有効かどうかを決定できる。 自由度は n − p − 1 で与えられる。

残差は、観測値とモデルによる予測値の差を表し、回帰結果を分析するときに必要となる。以下のように決定される。

モデルの標準偏差 は以下のように決定される。

誤差の分散は以下のカイ二乗分布に従う。

母数の 信頼区間である は以下のように算出される。

ここで tt分布でその自由度は であり は行列の第  行および列の値を表す。

予測(補間または補外)応答の信頼区間は、値 に対して下式で表される。

ここで  である。

データに対する応答の信頼区間の予測は、 以下のように与えられる。

回帰の二乗和 SSR は下式で与えられる。

ここで であり n × 1 の1ベクトル(各要素が1)である。 項  と等価である。

誤差の二乗和 ESS は下式で与えられる。

二乗和の全和 TSS' は下式で与えられる。

決定係数, R² は下式で与えられる。