私は Lasagne パッケージを使用して単純な畳み込みネットワークを構築しており、単純なしきい値 [max(0,x-threshold)] を持つ ReLu レイヤーを追加したかったのですが、トレーニング可能なパラメーター (lasagne.layers.NonlinearityLayer) のない整流器しか見つけることができませんでした。乗算されているパラメーターがあります (lasagne.layers.ParametricRectifierLayer)。このレイヤーは存在しますか、それとも明らかな何かが欠けていますか?
助けてくれてありがとう!テリー