カスタム 200 クラスでインセプション v3 モデルをゼロからトレーニングすることに成功しました。これで、出力ディレクトリに ckpt ファイルができました。これらのモデルを使用して推論を実行するにはどうすればよいですか?
できれば、モデルを GPU にロードし、モデルが GPU に保持されている間はいつでも画像を渡します。TensorFlow サービスを使用することは、私にとって選択肢ではありません。
注: これらのモデルをフリーズしようとしましたが、フリーズ中に output_nodes を正しく配置できませんでした。使用ImagenetV3/Predictions/Softmax
しましたが、フリーズしたモデルから必要なテンソルを取得できなかったため、feed_dict では使用できませんでした。
この推論部分の TF サイトとレポには貧弱なドキュメントがあります。