1

動機:

オブジェクト認識のための最先端のアルゴリズムは、バックプロパゲーションによってトレーニングされた深い畳み込みニューラル ネットワークです。主な問題は、ネットワークを良好な極小値に落ち着かせることです: http://books.nips.cc/papers/files/nips25 /NIPS2012_0534.pdf

オブジェクト認識をサポートするニューロンからの脳からのスパイク カウントを記録することは可能であり、これらのニューロンの応答を近似するニューラル ネットワークが適切な極小値にあると主張することは合理的です。http://www.sciencedirect.com/science/article/pii/S089662731200092X

ニューラル ネットワーク内のユニットのサブセットを制約して、特定の入力に対して特定の値 (たとえば、これらの画像に応答してニューロンから記録されたスパイク カウントなど) を再現し、制約付き勾配降下によって誤差を減らす場合、ネットワークを適切な極小値に落ち着かせることができる場合があります。

正確な質問:

ネットワーク内のいくつかのニューロンが特定の事前定義された値を持たなければならない場合、エラーの削減を最大化する方向にニューラル ネットワークの重みを変更する最も計算効率の良い方法は何でしょうか?

これまでの進捗:

これは非常に難しいラグランジュ乗数問題のようです。いくつかの作業を行い、このトピックに関する既存の文献を検索した後、誰かが同様の作業を聞いたことがあるかどうか疑問に思いました。

4

1 に答える 1