トレーニング ループをTensorflow 2.0 APIに移行しています。熱心な実行モードでは、 をtf.GradientTape置き換えtf.gradientsます。問題は、それらが同じ機能を持っているかどうかです。具体的には:
関数内
gradient():- パラメータは古い API
output_gradientsと同等ですか?grad_ys - パラメータについてはどうですか
colocate_gradients_with_ops。aggregation_method、gate_gradientsのtf.gradients? 使用されていないために廃止されていますか?2.0 API の他のメソッドを使用してそれらを置き換えることはできますか? それらは Eager Execution でまったく必要ですか?
- パラメータは古い API
関数は
jacobian()と同等tf.python.ops.parallel_for.gradientsですか?