TensorFlow サービングで tf.contrib.learn ワイドおよびディープ モデルを実行しており、トレーニング済みモデルをエクスポートするために、コードを使用しています
with tf.Session() as sess:
init_op = tf.initialize_all_variables()
saver = tf.train.Saver()
m.fit(input_fn=lambda: input_fn(df_train), steps=FLAGS.train_steps)
print('model successfully fit!!')
results = m.evaluate(input_fn=lambda: input_fn(df_test), steps=1)
for key in sorted(results):
print("%s: %s" % (key, results[key]))
model_exporter = exporter.Exporter(saver)
model_exporter.init(
sess.graph.as_graph_def(),
init_op=init_op,
named_graph_signatures={
'inputs': exporter.generic_signature({'input':df_train}),
'outputs': exporter.generic_signature({'output':df_train[impressionflag]})})
model_exporter.export(export_path, tf.constant(FLAGS.export_version), sess)
print ('Done exporting!')
ただし、コマンドsaver = tf.train.Saver()
の使用中にエラーが発生し、ValueError: No variable to save is displayed
ここに画像の説明を入力してください
モデルを保存して、エクスポートされたモデルをテンソルフロー標準サーバーにロードするときに必要なサーバブルが作成されるようにするにはどうすればよいですか? どんな助けでも大歓迎です。