私は現在、Lasagne / Theano を使用してリカレント ニューラル ネットワークに取り組んでいます。
トレーニング中、更新は Theano のシンボリック勾配を使用して計算されます。
grads = theano.grad(loss_or_grads, params)
勾配式は一般的にまったく問題ありませんが、トレーニングを監視するために勾配値にも関心があります。
私の質問は、これまでに見つけられなかった勾配値も取得する組み込みの方法があるかどうか、または自分で行う必要があるかどうかです。
前もって感謝します