問題タブ [relu]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
79 参照

deep-learning - ReLU がニューロンを殺すのはいつですか?

瀕死のReLUの問題について混乱しています。ReLUはフォワードパス中にのみニューロンを殺しますか? それとも後方パス中ですか? </p>

0 投票する
2 に答える
959 参照

python - Tensorflow ReLu が動作しませんか?

活性化関数としてreluを使用してテンソルフローで畳み込みネットワークを作成しましたが、学習していません(評価とトレーニングの両方のデータセットで損失が一定です)。さまざまなアクティベーション関数について、すべてが正常に機能します。

nn が作成されるコードは次のとおりです。

self.activation は tf.nn.relu に設定され、self.last_activation は tf.nn.softmax に設定されます

損失関数とオプティマイザーはここで作成されます。

初期化子として渡すことで変数の初期化を変更しようとしtf.random_normal_initializer(0.1, 0.1)ましたが、損失関数は変更されませんでした。

このニューラル ネットワークを ReLu で動作させるための助けをいただければ幸いです。

編集:Leaky ReLuにも同じ問題があります

編集:同じエラーを複製できた小さな例:

h_d および y_d カーネルの勾配 (tf.gradients で計算) とバイアスが 0 に等しいか、0 に近い