Theano ドキュメントのホームページで提供されているこのチュートリアルを読んでいます
勾配降下セクションの下にあるコードについてはよくわかりません。
for loop について疑問があります。
「 param_update」変数をゼロに初期化した場合。
param_update = theano.shared(param.get_value()*0., broadcastable=param.broadcastable)
次に、残りの 2 行でその値を更新します。
updates.append((param, param - learning_rate*param_update))
updates.append((param_update, momentum*param_update + (1. - momentum)*T.grad(cost, param)))
なぜそれが必要なのですか?
ここで何か間違っていると思います。助けてくれませんか!