パーセプトロン

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索
人工神経 > パーセプトロン

パーセプトロン(perceptron)は、心理学者・計算機科学者のフランク・ローゼンブラット1957年に考案し、1958年に論文[1]を発表した、人工ニューロンニューラルネットワークの一種。

概要[編集]

視覚の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら学習能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、1969年に人工知能学者マービン・ミンスキーらによって線形分離可能な物しか学習できない事が指摘された事によって下火となった。他の研究者によって様々な変種が考案されており、ニューロン階層を多層化し入出力が二値から実数になったボルツマンマシン1985年)やバックプロパゲーション1986年)などによって再び注目を集めた。2009年現在でも広く使われている機械学習アルゴリズムの基礎となっている。

形式ニューロン[編集]

パーセプトロンは1943年に発表された形式ニューロンに基づく。詳細は、形式ニューロンを参照。

パーセプトロン[編集]

ローゼンブラットはこの形式ニューロンの考え方を基にしてパーセプトロンを開発した。 S層(感覚層、入力層)、A層(連合層、中間層)、R層(反応層、出力層)の3つの部分からなる。 S層とA層の間はランダムに接続されている。 S層には外部から信号が与えられる。A層はS層からの情報を元に反応する。R層はA層の答えに重みづけをして、多数決を行い、答えを出す。

1970年頃、デビッド・マー[2]ジェームズ・アルブス[3]によって小脳はパーセプトロンであるという仮説があいついで提唱された。のちに神経生理学伊藤正男らの前庭動眼反射に関する研究[4]によって、平行繊維-プルキンエ細胞間のシナプスの長期抑圧(LTD, long-term depression)が見つかったことで、小脳パーセプトロン説は支持されている。

単純パーセプトロン[編集]

入力層と出力層のみの2層からなる、単純パーセプトロン(Simple perceptron)は線形非分離な問題を解けないことがマービン・ミンスキーシーモア・パパートによって指摘された。

多層パーセプトロン[編集]

デビッド・ラメルハートジェームズ・マクレランドはパーセプトロンを多層にし、バックプロパゲーション(誤差逆伝播学習法)で学習させることで、線型分離不可能な問題が解けるように、単純パーセプトロンの限界を克服した。

文献[編集]

  1. ^ Rosenblatt, Frank (1958). "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain". Psychological Review 65 (6): 386–408. 
  2. ^ Marr, D. (1969). "A theory of cerebellar cortex". Journal of Physiology 202: 437–470. PMID 5784296. 
  3. ^ Albus, J.S. (1971). "A theory of cerebellar function". Mathematical Bioscience 10: 25–61. 
  4. ^ Ito M, Sakurai M, Tongroach P (1982). "Climbing fibre induced depression of both mossy fibre responsiveness and glutamate sensitivity of cerebellar Purkinje cells". Journal of Physiology 324: 113–134. PMID 7097592. 

関連事項[編集]