動機:
オブジェクト認識のための最先端のアルゴリズムは、バックプロパゲーションによってトレーニングされた深い畳み込みニューラル ネットワークです。主な問題は、ネットワークを良好な極小値に落ち着かせることです: http://books.nips.cc/papers/files/nips25 /NIPS2012_0534.pdf
オブジェクト認識をサポートするニューロンからの脳からのスパイク カウントを記録することは可能であり、これらのニューロンの応答を近似するニューラル ネットワークが適切な極小値にあると主張することは合理的です。http://www.sciencedirect.com/science/article/pii/S089662731200092X
ニューラル ネットワーク内のユニットのサブセットを制約して、特定の入力に対して特定の値 (たとえば、これらの画像に応答してニューロンから記録されたスパイク カウントなど) を再現し、制約付き勾配降下によって誤差を減らす場合、ネットワークを適切な極小値に落ち着かせることができる場合があります。
正確な質問:
ネットワーク内のいくつかのニューロンが特定の事前定義された値を持たなければならない場合、エラーの削減を最大化する方向にニューラル ネットワークの重みを変更する最も計算効率の良い方法は何でしょうか?
これまでの進捗:
これは非常に難しいラグランジュ乗数問題のようです。いくつかの作業を行い、このトピックに関する既存の文献を検索した後、誰かが同様の作業を聞いたことがあるかどうか疑問に思いました。