教師あり学習

出典: フリー百科事典『ウィキペディア(Wikipedia)』

教師あり学習(きょうしありがくしゅう, : Supervised learning)とは、機械学習の手法の一つである。

既知の「問題」xiに対する「解答」yiを「教師」が教えてくれるという方法であり、「生徒」であるアルゴリズムが未知の「問題」xに対応する「解答」yを推論する事から名付けられたものである。そのような訓練に用いるデータを事を教師データとも呼ぶ。

概要[編集]

教師あり学習では、未知の確率分布を対象に学習を行う。実応用上は何らかを入力(x)、出力(y)とみなせる事が多く、例えばyxに未知の関数Fを施した値F(x)に小さなノイズが載ったものである。アルゴリズムには、に従うxyの組が訓練データとして与えられる。アルゴリズムが解くべきタスクは訓練データに属していない(かもしれない)データxに対し、条件付き確率分布ないしそこから決まる値(たとえばの期待値)をよく近似することである[1]。近似の精度は事前に定められた損失関数という関数を使って評価する。したがって損失関数の値の期待値を小さくする事が、教師あり機械学習の目標であると言える。

機械学習の定義に沿って言えば、教師あり機械学習は以下のような機械学習であるといえる:

タスク 経験 性能指標
ないしそこから決まる値をよく近似する事 訓練データ 損失関数の期待値

アルゴリズム[編集]

教師あり学習では事前知識であるから、未知のxに対応するyの分布を当てる事が求められる。このため、アルゴリズムが未知のxから(ないしそこから決まる値)を求める操作を汎化もしくは推論inference)と呼ぶ。タスクによっては「予測」「判断」「認識」等と呼ばれる事もある。

アルゴリズムは未知のデータxからxに対応するyの分布の情報を推測する必要があるが、この推論の為に事前知識として与えられる訓練データにはxiから推論しなければならないyiが「解答」としてついている。

訓練フェーズと汎化フェーズ[編集]

多くの教師あり機械学習のモデルでは、実際の汎化を行う前に訓練もしくは学習と呼ばれる作業が発生し、機械学習のモデルは「訓練アルゴリズム」と「汎化アルゴリズム」のペアとして捉える事ができる。訓練アルゴリズムは訓練データを入力として受け取り、パラメータと呼ばれる値θを出力する。パラメータは直観的には訓練データから有用な情報を引き出した「学習結果」であり、汎化の際にはこの「学習結果」であるθを使って汎化を行う。すなわち、汎化アルゴリズムは入力xの他にパラメータθをも入力として受け取り、(ないしそこから決まる値)を求める。

変数の名称[編集]

教師あり機械学習において、変数x説明変数(explanation variable)、y目的変数目標変数(target variable)、もしくは標的(target)と呼ぶ[2]。これらは別の名称で呼ばれる事も多く、x予測変数(predictor)、y応答変数response variable)と呼んだり[3]x独立変数(independent variable)、y従属変数(dependent variable)と呼んだりする事もある[3]。またタスクによってはこれら以外の名称で呼ばれる事もある。

タスク[編集]

教師あり学習に属する代表的なタスクとして回帰と分類がある。教師あり学習において、目的変数yが量的変数である場合を回帰(regression)、有限集合に値を取るカテゴリ型変数のである場合を分類(classification)もしくは判別と呼ぶ。[3][4]

典型的な訓練データ(例題)はベクトル(問題) とラベル(回答)の組として、 のように与えられる。ここで、 番目のデータを表し、 は0または1の2値を取るのラベルで、 はベクトルを表す。

典型的な訓練データは分類問題では が離散値を、回帰問題では実数値を取る。

これらのデータに何らかの基準でもっとも合う関数関係 を求める「学習」によって求められることで、未知のデータ にに対して、予言 を得ることができる。を分類問題であれば分類器、回帰問題であれば回帰曲線などと称する。

回帰[編集]

回帰の目標は入力xが与えられたとき、に関する情報を予想する事である。典型的には

のようにyが未知の関数Fの像F(x)にランダムなノイズεを加えたデータであるケースにおいて、入力xからyの可能な限り正確な予想値を出力する事が求められる。なお回帰で扱う目的変数yは連続量であり、典型的には実数を複数並べた数値ベクトルである。

他の教師あり機械学習アルゴリズムと同様、回帰アルゴリズムはに従って選ばれた訓練データの集合をとして受け取る事ができ、これらの訓練データをヒントにして入力xに対応するyの予想値

を出力する。予想の正確さは損失関数によって測られる。回帰では損失関数としては自乗誤差損失

を用いる事が多い。

回帰の目標は、汎化誤差予測誤差予測損失とも)

を小さく抑える事である。ここでは汎化アルゴリズムの出力であり、E[・]は期待値を表す。

分類[編集]

分類タスクでは、事前に定められた有限個のクラスが定められていて、各クラスには、「ネコ」、「イヌ」などのクラスラベル(もしくは単にラベル)と呼ばれるクラス名が割り振られている。分類タスクの目的は与えられた入力xがのいずれに属するかを当てる事である。

分類タスクを解くアルゴリズムには大まかに「決定論的アプローチ」と「確率論的アプローチ」の2種類があり[5]、前者は分類タスクでは入力xが与えられたとき、xが属すると思われるクラスラベルを出力するというものであり、損失関数としては典型的には0-1損失

を使う[6]

一方、後者はクラスラベルを直接出力するのではなく、確信度confidence scoreを出力するというものである。ここでxj番目のクラスに属しているとどの程度確信しているかを表す尺度であり、を満たす。

確信度を出力させる分類タスクでは、訓練データyiも確信度と整合性が取れるように符号化する。すなわち、xij番目のクラスに属している場合、とする。ここでejj番目の成分が1でそれ以外の成分が0のベクトルである(このように1つの成分だけが1でそれ以外は0となるベクトルをone-hotベクトルとい、one-hotベクトルによりデータを表現する事をone-hot表現[7] という)。損失関数としては典型的には交差エントロピー

を使う[6]

回帰と分類の関係性[編集]

確信度を使った分類タスクに対するアルゴリズムを設計する典型的な手法は、回帰タスクのアルゴリズムを流用するというものである。すなわちクラスをone-hotベクトルで符号化した訓練データを使って回帰タスクのアルゴリズムを訓練し、訓練結果のアルゴリズムを分類タスクに利用するという手法である。ただし、回帰タスク出力は、分類タスクの出力である確信度と違い、という条件を満たさないという問題が起こる。そこで一旦ソフトマックス変換

をかける事でこの問題を解決する。

逆に確信度を使った分類タスクを回帰タスクに流用する事もでき、この場合は上と同様の理由でソフトマックス変換の逆変換をかける必要がある。

バイアスと分散のトレードオフ[編集]

回帰では、入力xに対応するyの予測値を出力する事を求められ、yの期待値に近いことが望ましく、しかものばらつきは小さい方が望ましい。しかし下記に示すようにこの2つの要件はトレードオフの関係にある[8]

定理 (バイアスと分散のトレードオフ) ― p(x,y)上の確率分布とし、D上の何らかの確率分布に従って選ばれた訓練データの集合とし[注 1]を回帰アルゴリズムとし、Dによってこの回帰アルゴリズムを訓練して得られた関数をとし、誤差関数を自乗誤差

により定義し、さらにDとは独立に選び、
とする。

このとき、予測誤差の訓練データ集合Dに関する期待値(期待予測誤差[9]

は以下を満たす:
ここで、

上では回帰の場合について述べたが、確信度を出力する分類でも同様である。

ベイズ規則[編集]

Lp(x,y)をそれぞれ回帰や分類といった教師あり学習のタスクに対する損失関数、データ分布とし、関数Fに関する予測損失をと書き表す。このとき、予測損失の下限

を損失関数Lのもとでのベイズ誤差(Bayes error)と呼び、下限を達成するFベイズ規則(Bayes rule)という[10]。ここで可測関数全体の集合における下限である。

ベイズ規則は理論上の最良の予測関数であるが、実際には確率分布p(x,y)が未知なので、p(x,y)に関する予測損失を計算できず、ベイズ規則を求める事ができない。このため教師あり学習では既知のデータから可能な限りベイズ規則に近い値を出力するアルゴリズムを探索する事が求められる。

回帰[編集]

自乗損失を損失関数として選んだ場合、次の定理が成り立つ[11]

定理 (自乗損失に関する回帰のベイズ規則) ― p(x,y)上の確率分布とし、

とする。このとき、汎化誤差を最小にするは、
である。ここでEp(x,y)から定まる条件付き確率分布からランダムにyを選んだときの期待値である。

関数回帰関数と呼ぶ事もある[11]

分類[編集]

(確信度ではなくクラスを直接出力するタイプの)分類タスクにおいて、0-1損失関するベイズ規則は以下のようになる:

半教師あり学習[編集]

半教師あり学習の一種は部分のデータがラベルを付き、部分のデータがラベルを付かないこと。他の状況は、学習の目標はデータのラベルよりも多い場合。例えば、画像のボックスのラベルだけで、分割の役割を果たすこと。[12]

注釈[編集]

  1. ^ 典型的には、p(x,y)に従って独立にDの各データを選ぶが、Dをどのような確率分布から選んだかによらず、定理は証明できる。

出典[編集]

  1. ^ #GBC 5.1.3節
  2. ^ #瀧 p.20.
  3. ^ a b c #ESL p11-12
  4. ^ #金森 p.3.
  5. ^ #瀧 p.8.
  6. ^ a b #瀧 p.36.
  7. ^ #瀧 p.30.
  8. ^ Lecture 12: Bias-Variance Tradeoff”. CS4780/CS5780: Machine Learning for Intelligent Systems [FALL 2018]. コーネル大学. 2020年11月10日閲覧。
  9. ^ #金森 p.13.
  10. ^ #金森 p.9.
  11. ^ a b #ESL p22-23
  12. ^ Ulku, Irem; Akagündüz, Erdem (2022-12-31). “A Survey on Deep Learning-based Architectures for Semantic Segmentation on 2D Images” (英語). Applied Artificial Intelligence 36 (1): 2032924. doi:10.1080/08839514.2022.2032924. ISSN 0883-9514. https://www.tandfonline.com/doi/full/10.1080/08839514.2022.2032924. 

参考文献[編集]

  • Ian Goodfellow, Yoshua Bengio, Aaron Courville 翻訳:黒滝紘生, 河野慎, 味曽野雅史, 保住純, 野中尚輝, 冨山翔司, 角田貴大, 監訳:岩澤有祐, 鈴木雅大, 中山浩太郎, 松尾豊訳 (2018/8/27). 深層学習(kindle版). ドワンゴ. ASIN B07GQV1X76 
  • Hastie, Trevor、Tibshirani, Robert、Friedman, Jerome『統計的学習の基礎 データマイニング・推論・予測』杉山将、井手剛、神嶌敏弘、栗田多喜夫、前田英作、井尻善久、岩田具治、金森敬文、兼村厚範、烏山昌幸、河原吉伸、木村昭悟、小西嘉典、酒井智弥、鈴木大慈、竹内一郎、玉木徹、出口大輔、冨岡亮太、波部斉、前田新一、持橋大地、山田誠 翻訳、共立出版、2014年6月25日。ISBN 978-4320123625 
  • 瀧雅人『これならわかる深層学習入門』講談社〈KS情報科学専門書 機械学習スタートアップシリーズ〉、2017年10月21日。ISBN 978-4061538283 
  • 金森敬文『統計的学習理論』講談社〈KS情報科学専門書 機械学習スタートアップシリーズ〉、2015年8月8日。ISBN 978-4061529052 


関連項目[編集]