Relu
ニューラル ネットワークの構築中に活性化関数のしきい値を変更しようとしています。
したがって、最初のコードは以下に記述されたもので、relu しきい値のデフォルト値は 0 です。
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, ), activation = 'relu'),
Dense(32, activation = 'relu'),
Dense(2, activation='softmax')
])
ただし、Keras は同じ機能の実装を提供しており、ここで参照でき、スクリーンショットも追加できます。
そのため、次のエラーを取得するためだけにカスタム関数を渡すようにコードを次のように変更しました。
from keras.activations import relu
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, ), activation = relu(threshold = 2)),
Dense(32, activation = relu(threshold = 2)),
Dense(2, activation='softmax')
])
エラー: TypeError: relu() missing 1 required positional argument: 'x'
エラーは、relu 関数で x を使用していないことを理解していますが、そのようなものを渡す方法はありません。構文は私が書くことを期待していますmodel.add(layers.Activation(activations.relu))
が、その後、しきい値を変更することはできません。これは、回避策または解決策が必要な場所です。
次に、以下に示すように機能するReLU関数のレイヤー実装を使用しましたが、レイヤーを追加するのが常に便利であるとは限らず、作成したいため、アクティベーション関数の実装を機能させる方法があるかどうかを調べたいと思いますDense 関数内のその他の変更。
私のために働いたコード:-
from keras.layers import ReLU
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, )),
ReLU(threshold=4),
Dense(32),
ReLU(threshold=4),
Dense(2, activation='softmax')
])