4

Tensorflow API でオブジェクト検出を使用しています。以前の作業では、現在のステップを確認し、nステップごとにモデルを保存していました

この場合、作成者はTensorFlow-Slimを使用してトレーニングを実行します。したがって、tf.train.Saverトレーニングを実行する実際の関数に渡される a を使用しますslim.learning.train()。この関数には、パラメーターを使用してトレーニング モデルを書き留める間隔に関するいくつかのパラメーターがありますが、save_interval_secs時間に依存し、ステップに依存しません。

したがって、ここtf.train.Saverで述べたように「パッシブ」ユーティリティであり、提供されたパラメーターを使用してモデルを保存するだけであるため、意味は時間またはステップの概念を無視し、オブジェクト検出コードでは、制御はTensorFlow-Slimに渡されます。 saver をパラメーターとして使用します。この場合、モデルを段階的に保存するにはどうすればよいですか ( x 秒ごとではなくn ステップごと)。

唯一の解決策は、スリムなコードを掘り下げて編集することです (すべてのリスクはこれから発生します)。または、私がよく知らない別のオプションがありますか?

PS1このオプションについて驚くほどよく似た質問がここ
にあることがわかりましたが、残念ながら回答がありませんでした。それで、私の問題は解決しないので、この問題への関心を高めるために、この質問はそのままにしておきます。

PS2コードを
調べると、パラメーターを渡した後、このクラスは非推奨と見なされているため、どの参照先が少し奇妙であるかを制御するだけであることがわかりました。の使用は、 のドキュメント文字列にも記載されています。slim.learningtrain()supervisor.Supervisortf.train.Supervisorsupervisorslim.learning

4

0 に答える 0