現在、テンソルフロー サービングを使用して、トレーニング済みの「textsum」モデルを提供しようとしています。私はTF 0.11を使用しています。これは、いくつか読んだ後、エクスポートされたファイルckptおよびckpt.metaファイルを作成する export_meta_graph を自動的に呼び出すようです。
textsum/log_root ディレクトリの下に、複数のファイルがあります。1 つはmodel.ckpt-230381で、もう1 つは model.ckpt -230381.metaです。
したがって、これは、提供するモデルをセットアップしようとするときにポイントできる場所であると理解しています。以下のコマンドを発行しました。
bazel build //tensorflow_serving/model_servers:tensorflow_model_server
bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=model --model_base_path=tf_models/textsum/log_root/
上記のコマンドを実行すると、次のメッセージが表示されます。
W tensorflow_serving/sources/storage_path/file_system_storage_path_source.cc:204] ベース パス tf_models/textsum/log_root/ の下に、提供可能なモデルのバージョンが見つかりません
チェックポイント ファイルで inspect_checkpoint を実行すると、次のように表示されます。
> I tensorflow/stream_executor/dso_loader.cc:111] successfully opened
> CUDA library libcublas.so locally I
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA
> library libcudnn.so locally I
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA
> library libcufft.so locally I
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA
> library libcuda.so.1 locally I
> tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA
> library libcurand.so locally seq2seq/output_projection/w (DT_FLOAT)
> [256,335906] seq2seq/output_projection/v (DT_FLOAT) [335906]
> seq2seq/encoder3/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024]
> seq2seq/encoder3/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [768,1024]
> seq2seq/encoder3/BiRNN/BW/LSTMCell/B (DT_FLOAT) [1024]
> seq2seq/encoder2/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024]
> seq2seq/decoder/attention_decoder/Linear/Bias (DT_FLOAT) [128]
> seq2seq/decoder/attention_decoder/AttnW_0 (DT_FLOAT) [1,1,512,512]
> seq2seq/decoder/attention_decoder/AttnV_0 (DT_FLOAT) [512]
> seq2seq/encoder0/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [384,1024]
> seq2seq/decoder/attention_decoder/LSTMCell/W_0 (DT_FLOAT) [384,1024]
> seq2seq/encoder1/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [768,1024]
> global_step (DT_INT32) [] seq2seq/encoder1/BiRNN/BW/LSTMCell/B
> (DT_FLOAT) [1024]
> seq2seq/decoder/attention_decoder/AttnOutputProjection/Linear/Bias
> (DT_FLOAT) [256]
> seq2seq/decoder/attention_decoder/Attention_0/Linear/Matrix (DT_FLOAT)
> [512,512] seq2seq/decoder/attention_decoder/Attention_0/Linear/Bias
> (DT_FLOAT) [512] seq2seq/encoder2/BiRNN/BW/LSTMCell/B (DT_FLOAT)
> [1024] seq2seq/decoder/attention_decoder/Linear/Matrix (DT_FLOAT)
> [640,128]
> seq2seq/decoder/attention_decoder/AttnOutputProjection/Linear/Matrix
> (DT_FLOAT) [768,256] seq2seq/embedding/embedding (DT_FLOAT)
> [335906,128] seq2seq/encoder0/BiRNN/BW/LSTMCell/B (DT_FLOAT) [1024]
> seq2seq/encoder3/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [768,1024]
> seq2seq/encoder0/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [384,1024]
> seq2seq/encoder0/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024]
> seq2seq/decoder/attention_decoder/LSTMCell/B (DT_FLOAT) [1024]
> seq2seq/encoder1/BiRNN/FW/LSTMCell/B (DT_FLOAT) [1024]
> seq2seq/encoder2/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [768,1024]
> seq2seq/encoder1/BiRNN/FW/LSTMCell/W_0 (DT_FLOAT) [768,1024]
> seq2seq/encoder2/BiRNN/BW/LSTMCell/W_0 (DT_FLOAT) [768,1024]
エクスポートするために必要なことを誤解していませんか? モデルが見つからない理由についてのアイデアはありますか?