モデル ディレクトリにチェックポイントがあるかどうかにかかわらず、warm_start のタグが付けられた変数がウォーム スタートされていることに気付きました。すでにチェックポイントがある場合、ウォーム スタートしない方法はありますか? それとも、これらの変数をトレーニングから除外したという事実と関係がありますか?
モデルの入力として最後のレイヤーの 1 つを使用する inception_v4 を初期化するために、カスタム推定器で warm_start を使用しています。
ws = tf.estimator.WarmStartSettings(ckpt_to_initialize_from=self.warm_start_dir,
vars_to_warm_start='.*InceptionV4.*')
現時点では、トレーニングからも除外しています。
train_vars = tf.trainable_variables()
exc_vars = [var for var in train_vars if 'InceptionV4' not in var.name]
tf.contrib.tpu.TPUEstimatorSpec(mode, loss=mean_loss, train_op=optimizer.
minimize(mean_loss, global_step=tf.train.get_global_step(), var_list=exc_vars))
しかし、それらを除外しないことも試してみたいと思います。これは、より大きな問題になります。