問題タブ [relu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - CNN のこの新しいアクティベーション関数のコードを実装する方法
レル、リークレル、自分で設計した新しいタイプのレルがありますが、実装方法がわかりません。あなたが私を助けてくれることを願っています!
python - LSTM で relu アクティベーションを追加した後に Nan が発生するのはなぜですか?
おおよそ次のような単純な LSTM ネットワークがあります。
私の質問はです。アクティベーション (activation=None) を使用しないか、tanh を使用するとすべてが機能しますが、relu を切り替えると「トレーニング中に NaN 損失」が発生し続けます。なぜですか? 100%再現可能です。
tensorflow - このカスタム推定器で tf.nn.relu と tf.nn.sigmoid の両方が同じように機能するのはなぜですか?
これは、TensorFlow でカスタム推定器を作成するためのガイドです: https://www.tensorflow.org/guide/custom_estimators
非表示のレイヤーは次を使用して作成されtf.nn.relu
ます。
と を使用してXORを学習するために、例を少し変更しました。アクティベーション関数を に変更すると、例は通常どおりに機能します。なぜそうなのですか?XOR 入力は 0 と 1 だけなので、正しい結果が得られますか?hidden_units=[4]
n_classes=2
tf.nn.sigmoid
どちらの関数も、ゼロ ラインに収束する滑らかな損失曲線を提供します。