忍者ブログ
斜め上至上主義。
[84]  [83]  [82]  [81]  [80]  [79
[PR]
×

[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。

認知科学に対して工学的なアプローチをする上で学習を用いることになるのは当然のことだ。
特に計算知能を考えるのならば、ニューラルネットワークの理解は絶対に必要になる。

パーセプトロンとはFrank Rosenblattの考案した最初の人口ニューラルネットワークである。
このモデルではネットワークはループする結合を持たず、ノード間を単一方向にのみ伝播する(FFNN)。

単純パーセプトロンは複数ノードを持つ入力層と単一ノードの出力層の2層からなっており、
入力層にある複数のノードからそれぞれに重み付けされた信号が出力層のノードに送られる。
出力層では受け取ったノードの総和がある閾値を超えたときに活性化(発火)する。
試行経験からこの重み付けを変更することが学習である。

しかし2層パーセプトロンでは線形分離不可能な問題(つまり排他的論理和など)を解けないことが指摘されている。
その解決策としてDavid E.Rumelhartらの考案したバックプロパケーションを用いた多層パーセプトロンが登場する。

多層パーセプトロンは単純パーセプトロンを層状に複数繋ぎ合せただけのものである。
これだけではXORのような問題は解けないが、出力層の出力信号を教師信号(正解値)と比較し、
その誤差を規則に従って入力層へ向かい伝播させることで信号の重みを変化させる(学習させる)ことを繰り返すバックプロパケーションを用いることで解決する。

但し、あくまで対象ネットワークの誤差の極小値を求めるだけなので不連続な関数を扱うことはできない。
また近似を求めることになる以上、素子数の増加により学習がローカルミニマムに陥る可能性が高くなる。
よって2変数の関数近似課題などの独立な2種類の情報の広域な統合が必要な課題では多層パーセプトロンの限界が提示される。
 

PR
この記事にコメントする
お名前
タイトル
文字色
メールアドレス
URL
コメント
パスワード   Vodafone絵文字 i-mode絵文字 Ezweb絵文字
この記事へのトラックバック
この記事にトラックバックする:
☆じこしょうかい
HN:
Reis
職業:
学生
趣味:
音楽と読書とか。
今日も我が道を斜め上に行く。
 
design[dot×dot]
忍者ブログ [PR]