テンソルフローを始めたばかりです。作成したデータセットに対して正常にトレーニングできました。問題は、このモデルをどのように使用して予測を行うことができるかということです。値を渡して予測を応答として取得できる REST サービスとして作成したいと考えています。役立つリンクも歓迎します。モデルは現在 VM 上にあります。
ありがとう :)
テンソルフローを始めたばかりです。作成したデータセットに対して正常にトレーニングできました。問題は、このモデルをどのように使用して予測を行うことができるかということです。値を渡して予測を応答として取得できる REST サービスとして作成したいと考えています。役立つリンクも歓迎します。モデルは現在 VM 上にあります。
ありがとう :)
GCP 上の Cloud ML を見たことがありますか? それはまさにあなたが探しているものかもしれません。
https://cloud.google.com/ml/
可変バッチ サイズやコレクションへの入力/出力の追加など、モデルのアーキテクチャにいくつかの微調整が必要になる場合がありますが、ドキュメントで詳しく説明されています。
モデルを更新することにした場合のパフォーマンス、スケーラビリティ、および短いダウンタイムが問題にならない場合は、テンソルフローがインストールされた単純なフラスコ サーバーを使用することも検討できます。
Cloud ML を使用せず、大量のリクエストを処理する必要がある場合は、tensorflow serving を調べてください。
まず、モデルを保存してロードしてみてください: https://www.tensorflow.org/versions/r0.11/how_tos/variables/index.html
次に、トレーニングの後、次のように簡単に呼び出すことができます。
rest_prediction = sess.run(prediction_tensor, feed_dict={x_tensor: user_input})
重要な違いは、トレーニング中は batch_size の入力がありますが、REST サーバーの場合は 1 つの入力しかないことです。テンソルの形状 ( https://www.tensorflow.org/versions/r0.11/resources/dims_types.html ) は可変でなければなりません。これを達成する方法は、https ://www.tensorflow.org/versions/r0.11/resources/faq.html#tensor-shapes にあります。
短くシンプルなコード スニペットを投稿していただければ、より適切なサポートを提供できる可能性があります。