利用者:Runner3494

Wikipedia:ユーザーボックス
ウィキペディアンこの利用者はウィキペディアンです。
cpp-3 std::cout << "この利用者はC++を自在に操ります。" << std::endl;
java-3
System.out.println("この利用者はJavaを自在に操ります。");
Python
-2
print("この利用者はある程度のPythonを理解しています。")
ja この利用者は日本語母語としています。
en-2
This user is able to contribute with an intermediate level of English.

はじめまして、Runner3494と申します。学術的な専門分野は情報科学で、特に画像信号処理やコンピュータグラフィックスについて勉強しています。活動としては英語記事にはあるが日本語記事にはない重要な情報科学的知識およびそれに付随する数学的な用語について翻訳を主とした編集を行っています。また趣味の関係で国内のバンド系アーティストの記事についても編集を行っています。

編集を考えている記事[編集]

恥ずかしながらお願い[編集]

なるべく問題のない編集を心がけておりますが、編集初心者ゆえ「Wikipediaの編集方針」の解釈間違い、その他不適切な編集があるかもしれません。その際は心優しく教えていただければ幸いです。よろしくお願いいたします。

練習スペース[編集]

制限付きボルツマンマシン (英: Restricted Boltzmann Machine、RBM) とは確率的な生成モデルであり、入力集合上の確率分布を学習するための確率的グラフィカルモデルの一種である。RBMは当初、1986年に「Harmonium」という名前でPaul Smolenskiにより提案されたモデルである [1]

その後、2000年代中盤になってGeoffrey Hintonにより次元削減の目的で用いられた[2] classification,[3] collaborative filtering, feature learning[4]。 RBMは教師付き・教師なし学習のいずれでも用いることができる。

RBMはその名前が示す通り、ボルツマンマシンの一種であり、ニューロンがなすグラフ構造が二部グラフになっているようなモデルを指す。すなわちRBMは入力特徴に対応する入力層とそれにより訓練される隠れ層とを持ち、グラフのエッジは必ず入力層のニューロンと隠れ層のニューロンを結ぶ。このように通常のボルツマンマシンを単純化すると、訓練アルゴリズムとして通常のボルツマンマシンにも用いられる最急降下法に類似したアルゴリズムである「Contrastive Divergence」がよりよく働くようになる[5]

RBMは深層学習(Deep Learning)の中でも用いられる。特に、深層信頼ネットワーク(Deep Belief Network)では「stacking」RBMと呼ばれる方法がパラメータの初期予測に用いられ、その後の最急降下法と逆伝搬アルゴリズムを用いた深層学習をより高精度にすることが知られている [6]

  1. ^ Smolensky, Paul (1986). “Chapter 6: Information Processing in Dynamical Systems: Foundations of Harmony Theory”. In Rumelhart, David E.; McLelland, James L.. Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Volume 1: Foundations. MIT Press. pp. 194–281. ISBN 0-262-68053-X. http://www-psych.stanford.edu/~jlm/papers/PDP/Volume%201/Chap6_PDP86.pdf 
  2. ^ doi:10.1126/science.1127647
    これはおそらく他の言語版からコピーされた出典です。日本語版では副テンプレートはまだ作成されていません。テンプレートページを開いて該当言語版からコピーする必要があります。通常英語版ページ
  3. ^ doi:10.1145/1390156.1390224
    これはおそらく他の言語版からコピーされた出典です。日本語版では副テンプレートはまだ作成されていません。テンプレートページを開いて該当言語版からコピーする必要があります。通常英語版ページ
  4. ^ Coates, Adam; Lee, Honglak; Ng, Andrew Y. (2011). An analysis of single-layer networks in unsupervised feature learning (PDF). International Conference on Artificial Intelligence and Statistics (AISTATS).
  5. ^ Miguel Á. Carreira-Perpiñán and Geoffrey Hinton (2005). On contrastive divergence learning. Artificial Intelligence and Statistics.
  6. ^ Hinton, G. (2009). “Deep belief networks”. Scholarpedia 4 (5): 5947. doi:10.4249/scholarpedia.5947. http://www.scholarpedia.org/article/Deep_belief_networks.