Next: 構成
Up: RNNについて
Previous: RNNについて
- 従来のフィードフォワード、Hopfieldモデル(構成・学習則)について
80年代後半からのニューラルネットワーク研究は、フィードフォワードネットワークにおけるバックプロパゲーション(BP)学習と、対称結合のネットワークにおけるエネルギー最小化という、2つの原理を軸として展開されてきた。
フィードフォワードの階層型ネットワークでは、その中間層の結合荷重とネットワークの出力との微分関係は、合成関数の微分の法則によって簡単に求めることができ、局所並列的な計算によって出力誤差の最急降下学習を行うことができる。このような単純な学習則が得られるのは、ネットワークに自律的なダイナミクスを持たせず、その出力は単にその時点での入力ベクトルの静的な関数となるよう制限を加えたことによる。
また、Hopfieldモデルに代表される対称結合のネットワークのダイナミクスは、遅かれ早かれある平行状態に収束してしまい、初期値から収束値へという静的な写像関係しか表現できない。
しかし例えば、生物や人間の認識や行動は単に現在の入力の関数として決まっているのではなく、その内部の状態に依存した動的なものである。このような動的な情報処理の機構を、ニューラルネットモデルによって解析するためには、そのトポロジーを対称結合や一方向結合に限定せず、非対称でリカレントな結合を持つネットワークの性質と、そこにおける学習の原理を探っていかなければならない。
Hitoshi Kobayashi
Wed Jul 26 04:25:55 JST 2000