問題タブ [activation-function]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - Keras Reluアクティベーション関数でmax_valueを使用する方法
keras/activation.py で定義されている Relu 関数は次のとおりです。
値をクリップするために使用できる max_value があります。これをコードでどのように使用/呼び出すことができますか? 私は次のことを試しました:(a)
(ロ)
同じエラー
(c)
これの問題は、入力が最初の値に存在することを期待していることです。エラーは、「relu() は少なくとも 1 つの引数を取ります (1 つ指定)」です。
では、これをレイヤーにするにはどうすればよいでしょうか。
同じ問題がある
このファイルがレイヤーとして使用できない場合、Relu にクリップ値を指定する方法がないようです。これは、提案された変更を閉じるhttps://github.com/fchollet/keras/issues/2119のコメントが間違っていることを意味します...何か考えはありますか? ありがとう!
python - アクティベーション関数として ReLU を使用する場合の考慮事項
私はニューラル ネットワークを実装しており、ReLU をニューロンの活性化関数として使用したいと考えていました。さらに、SDG とバックプロパゲーションを使用してネットワークをトレーニングしています。パラダイム XOR 問題を使用してニューラル ネットワークをテストしていますが、これまでのところ、ロジスティック関数または双曲線正接を活性化関数として使用すると、新しいサンプルが正しく分類されます。
Leaky ReLU をアクティベーション関数として使用する利点について読んでいて、次のように Python で実装しました。
はNumPynp
の名前です。関連する派生物は次のように実装されます。
この関数をアクティベーションとして使用すると、間違った結果が得られます。例えば:
入力 = [0, 0] --> 出力 = [0.43951457]
入力 = [0, 1] --> 出力 = [0.46252925]
入力 = [1, 0] --> 出力 = [0.34939594]
入力 = [1, 1] --> 出力 = [0.37241062]
出力が予想される XOR のものと大きく異なることがわかります。そこで質問なのですが、ReLU をアクティベーション関数として使用する際に特別な考慮事項はありますか?
より多くのコンテキストやコードを私に尋ねることを躊躇しないでください。前もって感謝します。
編集: NumPy 配列ではなく、単一の float 値のみを返すため、派生物にバグがあります。正しいコードは次のとおりです。
python-2.7 - NumPy / Python での複雑な値の正規化
現在、複雑な値を正規化しようとしています..これを行う良い方法がないため、データセットを実部のみのデータと虚部のみのデータで構成される2つに分割することにしました。
そして、それぞれを個別に正規化します
正規化の後、複雑な値を持つ 1 つのデータセットに戻るように、両方のデータセットをマージすることになっていますか?しかし、どうすればよいですか?
-0.9 から 0.9 の範囲で動作するアクティベーション関数として tanh を使用できるように、データの正規化が行われます => そのため、データ セットをこれらの範囲に正規化する必要があります。