トレーニング ループをTensorflow 2.0 APIに移行しています。熱心な実行モードでは、 をtf.GradientTape
置き換えtf.gradients
ます。問題は、それらが同じ機能を持っているかどうかです。具体的には:
関数内
gradient()
:- パラメータは古い API
output_gradients
と同等ですか?grad_ys
- パラメータについてはどうですか
colocate_gradients_with_ops
。aggregation_method
、gate_gradients
のtf.gradients
? 使用されていないために廃止されていますか?2.0 API の他のメソッドを使用してそれらを置き換えることはできますか? それらは Eager Execution でまったく必要ですか?
- パラメータは古い API
関数は
jacobian()
と同等tf.python.ops.parallel_for.gradients
ですか?