| この項目「 線形回帰」は途中まで翻訳されたものです。(原文: en:linear regression) 翻訳作業に協力して下さる方を求めています。 ノートページや 履歴、 翻訳のガイドラインも参照してください。 要約欄への翻訳情報の記入をお忘れなく。 (2007年10月) |
1つの従属変数と1つの独立変数がある線形回帰の例。
線形回帰(せんけいかいき、英: linear regression)とは、統計学における回帰分析の一種である。線形回帰は非線形回帰と対比される。
基本モデル[編集]
線形回帰モデルは、目的変数[注釈 1] Y と説明変数[注釈 1] Xi, i = 1, ..., p および擾乱項[注釈 2] ε の関係を以下のようにモデル化したものである。

ここで β0 は切片(「定数」項)、βi は各々の説明変数の係数であり、p は説明変数の個数である。線形回帰においては、説明変数の係数および切片の組 {βi}i∈[0,p) をパラメタとするモデルを与える。また、擾乱項 ε は説明変数 X とは独立である。
ベクトル・行列記法を用いれば、線形回帰モデルは以下のように表せる。

線形回帰が「線形」であるのは、目的変数 Y が説明変数 X の係数 β に対して線形であるためである。たとえば

という回帰は x に対して明らかに線形ではないが、係数 β に対して線形であるから、線形回帰の問題に分類される。
単回帰(英語版)の場合、説明変数は1つだけであり回帰パラメタは2つである。上式は以下のようになる。
同等な定式化に、線形回帰を条件付き期待値のモデルとして陽に表すものがある。
ここで、所与の x に対する y の条件付き確率分布は擾乱項の確率分布に一致する。
線形回帰の種類[編集]
最小二乗モデル[編集]
最小二乗法はカール・フリードリッヒ・ガウスが1820年代に発展させた。本方法は、擾乱項 εi の振る舞いに次のような仮定をする(ガウス=マルコフ仮定)。
- 擾乱 εi の期待値は 0 である
![{\displaystyle E[\varepsilon ]=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ab956fd88998e075795bea4c578955a772ea69c9)
- 擾乱 εi は相互に無相関である(統計的な独立の仮定よりは弱い)

- 擾乱 εi は等分散、すなわちみな等しい分散をもつ(ガウス=マルコフの定理も参照)
![{\displaystyle V[\varepsilon _{i}]=\sigma ^{2},\qquad \forall i\in [n].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e86e732d5b078b2b0aface0a79cf7ab048d30422)
以上の仮定は、最小二乗法がある意味で最適なパラメタの推定量を与えることを保証する。
説明変数の個数が p 個のモデルを考えると、線形回帰によって決定すべきパラメタは係数 β1,..., βp と切片 β0 の p + 1 個である。目的変数と説明変数の測定結果の組 (yk; xk1,...,xkp) を1つのデータとし、n 個のデータを用いた線形回帰は以下のように表すことができる。

上記の連立方程式は、目的変数の観測値を n 成分の列ベクトル Y、説明変数の観測値および切片 β0 の係数 (=1) を n × (p + 1) 行列 X、回帰パラメタを (p + 1) 成分の列ベクトルβ、観測ごとの擾乱を n 成分の列ベクトル ε とすれば、行列の記法を用いて以下のように表せる。

n = p の場合、回帰パラメタの標準誤差は算出できない。n が p より小さい場合、パラメタは算出できない。
回帰パラメタの推定量は、
で与えられ、ガウス=マルコフの定理より推定量
は最良線形不偏推定量になる。つまり、任意の線形不偏推定量
に対して
が成立する。
回帰の二乗和 SSR は下式で与えられる。
ここで
であり
は n × 1 の1ベクトル(各要素が1)である。
項
は
と等価である。
誤差の二乗和 ESS は下式で与えられる。
二乗和の全和 TSS' は下式で与えられる。
決定係数, R² は下式で与えられる。
擾乱項が正規分布に従うモデル[編集]
以下では擾乱項εiが互いに独立な平均
, 分散
の正規分布に従うと仮定する。
残差は、観測値とモデルによる予測値の差を表し、以下のように決定される。
この時、統計量
は分散
の不偏推定量(
)になる[1]。また、最小二乗推定量
と統計量
について以下が成立することが知られている。証明は久保川(2017)[2]や解説記事[3]が詳しい。
は多次元正規分布
に従う
は自由度
の
分布に従う
と
は独立
上記の事実をもとに回帰係数の有意性検定、信頼区間や予測区間を構成できる。
回帰係数の有意性検定[編集]
回帰係数の推定量
は正規分布
に従うことから

は自由度
の
分布に従う[4]。ここで
は行列
の第
成分である。(添え字
は0から始まることに注意。)
これより適当な有意水準
で
- 帰無仮説:

- 対立仮説:

を検定することできる。
信頼区間と予測区間[編集]
値
における
の信頼区間は下式[5]で表される。
同様に値
における
の予測区間は下式[6]で表される。
- ^ a b 回帰分析の分野においては、目的変数をしばしば応答変数(おうとうへんすう、英: response variable)とも呼ぶ。説明変数(せつめいへんすう、explanatory variable)は他に様々な名称で呼ばれ、たとえば外生変数(がいせいへんすう、英: exogenous variable)、入力変数(にゅうりょくへんすう、英: input variable)、予測変数(よそくへんすう、英: predictor variable)とも呼ばれる。また、目的変数を従属変数(じゅうぞくへんすう、英: dependent variable)、説明変数を独立変数(どくりつへんすう、英: independent variable)と対で呼ぶこともあるが、従属/独立といった言葉は数学において多義的に使われがちであるため、使用には注意が必要である。
- ^ 擾乱項(じょうらんこう、英: disturbance term)は雑音項(ざつおんこう、英: noise term)、あるいは誤差項(ごさこう、英: error term)とも呼ばれる。この「誤差」は回帰モデルの誤差ではなく、測定に伴う誤差を指している。