keras/activation.py で定義されている Relu 関数は次のとおりです。
def relu(x, alpha=0., max_value=None):
return K.relu(x, alpha=alpha, max_value=max_value)
値をクリップするために使用できる max_value があります。これをコードでどのように使用/呼び出すことができますか? 私は次のことを試しました:(a)
model.add(Dense(512,input_dim=1))
model.add(Activation('relu',max_value=250))
assert kwarg in allowed_kwargs, 'Keyword argument not understood:
' + kwarg
AssertionError: Keyword argument not understood: max_value
(ロ)
Rel = Activation('relu',max_value=250)
同じエラー
(c)
from keras.layers import activations
uu = activations.relu(??,max_value=250)
これの問題は、入力が最初の値に存在することを期待していることです。エラーは、「relu() は少なくとも 1 つの引数を取ります (1 つ指定)」です。
では、これをレイヤーにするにはどうすればよいでしょうか。
model.add(activations.relu(max_value=250))
同じ問題がある
このファイルがレイヤーとして使用できない場合、Relu にクリップ値を指定する方法がないようです。これは、提案された変更を閉じるhttps://github.com/fchollet/keras/issues/2119のコメントが間違っていることを意味します...何か考えはありますか? ありがとう!