5

特定の特性を持つニューラルネットワークモデルを探しています。このモデルは存在しない可能性があります...

従来の人工ニューラルネットワークのように「レイヤー」を使用しないネットワークが必要です。代わりに、私は[私が信じているもの]より生物学的なモデルが欲しいのです。

このモデルは、下の画像のように、相互接続されたニューロンの大きなクラスターを収容します。いくつかのニューロン(図の下部)は入力信号を受信し、カスケード効果により、信号強度と接続の重みに応じて、連続して接続されたニューロンが発火する可能性があります。これは目新しいことではありませんが、明示的なレイヤーはありません...ますます遠くの間接的な接続です。

ご覧のとおり、ネットワークもセクション(円)に分割されています。各円は、概念を取り巻くコア情報であるセマンティックドメイン(言語学の概念)を表します。本質的にセマンティックドメインは概念です。

セクション内のノード間の接続は、異なるセクションのノード間の接続よりも重みが高くなります。したがって、「car」のノードは、「English」を「car」に接続するノードよりも相互に接続されています。したがって、単一のセクションのニューロンが発火する(アクティブ化される)と、セクション全体(またはほとんど)もアクティブ化される可能性があります。

全体として、出力パターンを入力として使用してさらに出力する必要があります。カスケード効果は私が求めているものです。

これが理にかなっていることを願っています。必要に応じて説明を求めてください。

私が説明したものをモデル化する適切なモデルがすでに存在しますか?

ここに画像の説明を入力してください

4

4 に答える 4

3

ニューラル ネットワークは、遺伝的アルゴリズムなどの進化的アルゴリズムを使用して作成されたニューラル ネットワークに似ています。

詳しくは以下の記事をご覧ください。

このタイプのニューラル ネットワークの概要。ニューロンとその接続は、進化的手法を使用して作成されます。したがって、厳密なレイヤーアプローチはありません。ハンスは次のテクニックを使用します。

"遺伝子操作:

交差演算子は、2 つのニューラル ネットワーク間で部分セクションを交換することによって、新しい子孫を生成します。2 つの異なるニューラル ネットワークをランダムに選択し、1 つの非表示ノードをピボット ポイントとして選択します。次に、選択したピボット ポイントに基づいて接続リンクと対応する重みを交換します。

ミューテーション オペレーターは、接続リンクと、ランダムに選択されたニューラル ネットワークの対応する重みを変更します。新しい接続の追加または既存の接続の削除の 2 つの操作のいずれかを実行します。

突然変異演算子は、ニューラル ネットワークの 2 つのノードをランダムに選択します。それらの間に接続がない場合、ランダムな重みで 2 つのノードを接続します。
それ以外の場合は、接続リンクと重み情報が削除されます。"

ホイットリーの記事からの次の図。

ニューラル ネットワークの逆伝播と遺伝的アルゴリズム

@ARTICLE{Han2005Evolutionary,
  author = {Sang-Jun Han and Sung-Bae Cho},
  title = {Evolutionary neural networks for anomaly detection based on the behavior
of a program},
  journal = {Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions
on},
  year = {2005},
  volume = {36},
  pages = {559 -570},
  number = {3},
  month = {june },

}

@article{whitley1995genetic,
  title={Genetic algorithms and neural networks},
  author={Whitley, D.},
  journal={Genetic algorithms in engineering and computer science},
  pages={203--216},
  year={1995},
  publisher={Citeseer}
}
于 2012-11-22T12:24:19.153 に答える
2

全体として、さらなる出力などの入力として使用される出力パターンが必要です。カスケード効果は私が求めているものです。

これは、複数の隠れ層を持つフィードフォワード ネットのように聞こえます。ここで「レイヤー」という言葉を怖がらないでください。複数のレイヤーがあると、そこに描いたようになります.. 5-5-7-6-7-6-6-5-6-5 のようなもの -構造化されたネット (5 つの入力、それぞれのノード数が異なる 8 つの隠れ層、および 5 つの出力)。

レイヤーから別のレイヤーへ、好きな方法でノードを相互に接続できます。それらの間の重みとして定数ゼロを使用するだけで、接続されていないものをいくつか残すことができます。または、オブジェクト指向プログラミングが使用されている場合は、不要な接続を接続フェーズから除外するだけです。レイヤーをスキップすることは、標準の NN モデルでは難しいかもしれませんが、1 つの方法は、重みが交差する必要がある各レイヤーにダミー ノードを使用することです。元の output*weight 値をノードからダミーにコピーするだけで、レイヤーをスキップするのと同じになり、これにより標準の NN モデルもそのまま維持されます。

ネットに 1 と 0 だけを出力させたい場合は、単純なステップ関数を各ノードの活性化関数として使用できます。値が 0.5 を超える場合は 1、それ以外の場合は 0 です。

これがあなたが望むものかどうかはわかりませんが、この方法であなたが説明したネットを構築できるはずです. ただし、ネットワークにセマンティックドメインを生成するようにどのように教えるつもりなのか、私にはわかりません。ネットに自分の重みを学習させないのはなぜですか? これは、単純な入出力例と逆伝播アルゴリズムで実現できます。標準モデルを使用してネットを構築する場合、学習の数学も他のフィードフォワード ネットと何ら変わりはありません。大事なことを言い忘れましたが、コードを少し変更するだけで、またはまったく変更せずに、このタスクに適したライブラリをおそらく見つけることができます。

于 2012-11-19T20:38:45.517 に答える
1

遺伝的アルゴリズムに関する答えはうまく聞こえます(特にDarrell Whitleyの研究を引用しているもの)。

もう1つの方法は、ノードをランダムに接続することです。これは、多かれ少なかれ、リカレントニューラルネットワークで行われます。

また、特定の目的のために設計された、ここで説明したものと多少似ている多くの層を持つANNの例として、LeCunの非常に成功した畳み込みニューラルネットワークを見ることができます。

于 2012-11-30T05:31:44.060 に答える
1

あなたのネットワークもこれを模倣しています http://nn.cs.utexas.edu/?fullmer:evolving

しかし、実際にはネットワークが学習することはできませんが、置き換えられます。

ここで取り上げる可能性のあるもの

http://www.alanturing.net/turing_archive/pages/reference%20articles/connectionism/Turing%27s%20neural%20networks.html

于 2013-01-04T05:34:35.780 に答える