0

私は Lasagne パッケージを使用して単純な畳み込みネットワークを構築しており、単純なしきい値 [max(0,x-threshold)] を持つ ReLu レイヤーを追加したかったのですが、トレーニング可能なパラメーター (lasagne.layers.NonlinearityLayer) のない整流器しか見つけることができませんでした。乗算されているパラメーターがあります (lasagne.layers.ParametricRectifierLayer)。このレイヤーは存在しますか、それとも明らかな何かが欠けていますか?

助けてくれてありがとう!テリー

4

1 に答える 1

0

私はそれが存在するとは思わない。その理由は、通常、バイアスが含まれている relu (畳み込みまたは完全に接続された) の前にトレーニング可能なレイヤーがあるためです。バイアスによってデータを移動することは、relu にしきい値を設定することと同じです。relu の前にトレーニング可能なレイヤーがない場合は、明示的に lasagne.layers.BiasLayer ( http://lasagne.readthedocs.org/en/latest/modules/layers/special.html )を追加することもできます。

お役に立てれば

マイケル

于 2016-03-18T09:06:34.777 に答える