「パーセプトロン」の版間の差分

出典: フリー百科事典『ウィキペディア(Wikipedia)』
削除された内容 追加された内容
Ertyupoi (会話 | 投稿記録)
Ertyupoi (会話 | 投稿記録)
編集の要約なし
2行目: 2行目:
| last = Rosenblatt
| last = Rosenblatt
| first = Frank
| first = Frank
| author = Rosenblatt, F.
| author =
| authorlink =
| authorlink =
| coauthors =
| coauthors =
21行目: 21行目:


== 概要 ==
== 概要 ==
[[視覚]]と[[脳]]の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら[[学習]]能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、[[1969年]]に人工知能学者[[マービン・ミンスキー]]らによって[[線形分離可能]]な物しか学習できない事が指摘された事によって下火となった。他の研究者によって様々な変種が考案されており、ニューロン階層を多層化した[[ボルツマンマシン]]([[1985年]])や[[バックプロパゲーション]]([[1986年]])などによって再び注目を集めた。2009年現在でも広く使われている[[機械学習]]アルゴリズムの基礎となっている。
[[視覚]]と[[脳]]の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら[[学習]]能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、[[1969年]]に人工知能学者[[マービン・ミンスキー]]らによって[[線形分離可能]]な物しか学習できない事が指摘された事によって下火となった。他の研究者によって様々な変種が考案されており、ニューロン階層を多層化し入出力が二値から実数になった[[ボルツマンマシン]]([[1985年]])や[[バックプロパゲーション]]([[1986年]])などによって再び注目を集めた。2009年現在でも広く使われている[[機械学習]]アルゴリズムの基礎となっている。


== 形式ニューロン ==
== 形式ニューロン ==
神経生理学者・外科医である[[ウォーレン・マカロック]]と論理学者・数学者である[[ウォルター・ピッツ]]によって、[[形式ニューロン]]というモデルが考えられ。このモデルは[[チューリングマシン]]と同等の計算能力を持つ。
[[1943年]]に神経生理学者・外科医である[[ウォーレン・マカロック]]と論理学者・数学者である[[ウォルター・ピッツ]][[形式ニューロン]]というモデルを発表し<ref>{{Cite journal
|author=Warren S. McCulloch
|author2=Walter Pitts
|title=A logical calculus of the ideas immanent in nervous activity
|journal=The bulletin of mathematical biophysics
|volume=5
|issue=4
|year=1943
|month=December
|publisher=Kluwer Academic Publishers
|pages=115-133
|doi=10.1007/BF02478259
}}</ref>。このモデルは[[チューリングマシン]]と同等の計算能力を持ち、多層構造で、XOR も扱え、線形非分離な問題も扱える。


このモデルは、以下の通り。入出力は 0 または 1 である。
このモデルは、wを重みづけ、xを入力信号(0から1まで)、しきい値をhとするとき、Hを[[ヘヴィサイドの階段関数]]とするとき、
* w:重みづけ(実数)
* x:入力信号(0 または 1)
* h:しきい値(実数)
* H:[[ヘヴィサイドの階段関数]](出力は 0 または 1)


<math>H(\sum_{i=1}^N w_ix_i-h)</math>
:<math>H(\sum_{i=1}^N w_ix_i-h)</math>


実例としては、以下の通り。XOR は3層、他は2層である。
で表される。
;AND
:<math>H(x_1 + x_2 - 1.5)</math>
;OR
:<math>H(x_1 + x_2 - 0.5)</math>
;NOT
:<math>H(-x_1 + 0.5)</math>
;XOR
:<math>H(x_1 + x_2 - 2 H(x_1 + x_2 - 1.5) - 0.5)</math>

マカロックらはニューロンの状態が 0 または 1 で表現できることに強くこだわっており、論文冒頭が Because of the “all-or-none” character of nervous activity で始まり二値であることを強調している。しかしながら、1986年のラメルハートらのバックプロパゲーションでは、形式ニューロンとのモデルとしての違いは、入出力が 0 または 1 の二値ではなく実数になり、二値のヘヴィサイドの階段関数が実数も出力できるシグモイド関数になった点にある。


== パーセプトロン ==
== パーセプトロン ==

2015年2月6日 (金) 10:17時点における版

パーセプトロン(perceptron)は、心理学者・計算機科学者のフランク・ローゼンブラット1957年に考案し、1958年に論文[1]を発表した、ニューラルネットの一種。

概要

視覚の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら学習能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、1969年に人工知能学者マービン・ミンスキーらによって線形分離可能な物しか学習できない事が指摘された事によって下火となった。他の研究者によって様々な変種が考案されており、ニューロン階層を多層化し入出力が二値から実数になったボルツマンマシン1985年)やバックプロパゲーション1986年)などによって再び注目を集めた。2009年現在でも広く使われている機械学習アルゴリズムの基礎となっている。

形式ニューロン

1943年に神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツ形式ニューロンというモデルを発表した[2]。このモデルはチューリングマシンと同等の計算能力を持ち、多層構造で、XOR も扱え、線形非分離な問題も扱える。

このモデルは、以下の通り。入出力は 0 または 1 である。

実例としては、以下の通り。XOR は3層、他は2層である。

AND
OR
NOT
XOR

マカロックらはニューロンの状態が 0 または 1 で表現できることに強くこだわっており、論文冒頭が Because of the “all-or-none” character of nervous activity で始まり二値であることを強調している。しかしながら、1986年のラメルハートらのバックプロパゲーションでは、形式ニューロンとのモデルとしての違いは、入出力が 0 または 1 の二値ではなく実数になり、二値のヘヴィサイドの階段関数が実数も出力できるシグモイド関数になった点にある。

パーセプトロン

ローゼンブラットはこの形式ニューロンの考え方を基にしてパーセプトロンを開発した。 S層(感覚層、入力層)、A層(連合層、中間層)、R層(反応層、出力層)の3つの部分からなる。 S層とA層の間はランダムに接続されている。 S層には外部から信号が与えられる。A層はS層からの情報を元に反応する。R層はA層の答えに重みづけをして、多数決を行い、答えを出す。

1970年頃、デビッド・マー[3]ジェームズ・アルブス[4]によって小脳はパーセプトロンであるという仮説があいついで提唱された。のちに神経生理学伊藤正男らの前庭動眼反射に関する研究[5]によって、平行繊維-プルキンエ細胞間のシナプスの長期抑圧(LTD, long-term depression)が見つかったことで、小脳パーセプトロン説は支持されている。

単純パーセプトロン

入力層と出力層のみの2層からなる、単純パーセプトロン(Simple perceptron)は線形非分離な問題を解けないことがマービン・ミンスキーシーモア・パパートによって指摘された。

多層パーセプトロン

デビッド・ラメルハートジェームズ・マクレランドはパーセプトロンを多層にし、バックプロパゲーション(誤差逆伝播学習法)で学習させることで、線型分離不可能な問題が解けるように、単純パーセプトロンの限界を克服した。

文献

  1. ^ Rosenblatt, Frank (1958). “The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain”. Psychological Review 65 (6): 386-408. 
  2. ^ Warren S. McCulloch; Walter Pitts (December 1943). “A logical calculus of the ideas immanent in nervous activity”. The bulletin of mathematical biophysics (Kluwer Academic Publishers) 5 (4): 115-133. doi:10.1007/BF02478259. 
  3. ^ “A theory of cerebellar cortex”. Journal of Physiology 202: 437-470. (1969). PMID 5784296. 
  4. ^ “A theory of cerebellar function”. Mathematical Bioscience 10: 25-61. (1971). 
  5. ^ “Climbing fibre induced depression of both mossy fibre responsiveness and glutamate sensitivity of cerebellar Purkinje cells”. Journal of Physiology 324: 113-134. (1982). PMID 7097592. 

関連事項