7

keras/activation.py で定義されている Relu 関数は次のとおりです。

    def relu(x, alpha=0., max_value=None):
      return K.relu(x, alpha=alpha, max_value=max_value)

値をクリップするために使用できる max_value があります。これをコードでどのように使用/呼び出すことができますか? 私は次のことを試しました:(a)

    model.add(Dense(512,input_dim=1))
    model.add(Activation('relu',max_value=250))
    assert kwarg in allowed_kwargs, 'Keyword argument not understood: 
    ' + kwarg
    AssertionError: Keyword argument not understood: max_value

(ロ)

    Rel = Activation('relu',max_value=250)

同じエラー

(c)

    from keras.layers import activations
    uu = activations.relu(??,max_value=250)

これの問題は、入力が最初の値に存在することを期待していることです。エラーは、「relu() は少なくとも 1 つの引数を取ります (1 つ指定)」です。

では、これをレイヤーにするにはどうすればよいでしょうか。

    model.add(activations.relu(max_value=250))

同じ問題がある

このファイルがレイヤーとして使用できない場合、Relu にクリップ値を指定する方法がないようです。これは、提案された変更を閉じるhttps://github.com/fchollet/keras/issues/2119のコメントが間違っていることを意味します...何か考えはありますか? ありがとう!

4

4 に答える 4