問題タブ [tensorflow-serving]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
linux - TensorFlow モデルは Linux/Unix サービスとして実行できますか?
TensorFlow の高レベル機械学習 API (tf.contrib.learn) を使用して TensorFlow モデルを構築しました。このモデルを Linux/Unix サービスとして実行する必要があります。または、モデルを実行可能ファイルとしてエクスポートします。これは可能ですか?はいの場合、どうすればそうできますか?
どんな助けでも大歓迎です。
python - tensorflow contrib.learn export をエクスポートして tensorfow_serving にエクスポートする
tf.contrib.learn.DNNLinearCombinedClassifier
tensorflow サービング用のインスタンスをエクスポートしようとしています。次のコードを実行する場合:
次の警告が表示されます。
警告: tensorflow: use_deprecated_input_fn=True を指定して (tensorflow.contrib.learn.python.learn.estimators.estimator から) export を呼び出すことは非推奨であり、2016 年 9 月 23 日以降に削除されます。更新の手順: export によって受け入れられる input_fn の署名は、tf.Learn Estimator の train/evaluate によって使用されるものと一致するように変更されています。input_fn と input_feature_key は必須の引数になり、use_deprecated_input_fn はデフォルトで False になり、完全に削除されます。
問題は、今のところこの警告を無視してもいいですか? もう 1 つの質問ですが、クライアントのコードをどのように記述すればよいでしょうか? protobuf を正しく準備するにはどうすればよいですか?
mnist クライアントの場合、protobuf
次のように準備されていることがわかります。
contrib.learn
エスティメータで使用される特徴列に対して同じことを行うにはどうすればよいですか? たとえば、機能列が次のようになっているとしますか?
...そしてhttps://www.tensorflow.org/versions/r0.11/tutorials/wide/index.htmlinput_fn
などのチュートリアルの 1 つから、クライアントから送信する実際のデータが提供されます。
アップデート:
エクスポートとクライアントの組み合わせを実行しましたが、結果が正しくありません。エクスポート コードの一部は次のとおりです。
クライアントコードの一部は次のとおりです。
ご覧のとおり、pandas データフレームから抽出されたすべての入力列を という 1 つのテンソル プロトとして送信しようとしていますx_values
。これは正しいですか、それとも特徴列ごとに入力を作成する必要がありますか?
google-app-engine - Tensorflow トレーニング済みモデルをサービスとして使用する
テンソルフローを始めたばかりです。作成したデータセットに対して正常にトレーニングできました。問題は、このモデルをどのように使用して予測を行うことができるかということです。値を渡して予測を応答として取得できる REST サービスとして作成したいと考えています。役立つリンクも歓迎します。モデルは現在 VM 上にあります。
ありがとう :)
tensorflow - TensorFlow サービング用に Textsum をセットアップする方法
tensorflow サービングを使用して textsum のデコード機能をセットアップしようとしていますが、MNIST チュートリアルを介して実行するために完全に必要なものを完全に理解できていません。Tensorflow サービング モデルの設定に関する他のチュートリアルや、textsum に合わせたものに出くわした人はいますか? どんな助けや指示も素晴らしいでしょう。ありがとう!
最後に、ここにある seq2seq_attention.py の「train」でトレーニングされたモデルからデコード機能をエクスポートしようとしています: https://github.com/tensorflow/models/blob/master/textsum/seq2seq_attention.py
以下の 2 つのファイルを比較して、上記の textsum モデルに対して何を実行する必要があるかを理解するとき、「default_graph_signature、入力テンソル、classes_tensor など」で何を割り当てる必要があるかを理解するのに苦労しています。 textsum モデルと一致しない可能性がありますが、これは私が解決しようとしているものであり、テンソルフローのサービスにエクスポートされている他のモデルを見た場合、おそらくもう少し意味があるかもしれません。
と
https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/mnist_export.py
- - - - - - - - - 編集 - - - - - - - - - -
以下は私がこれまでに持っているものですが、いくつかの問題があります。サービス提供のために Textsum Eval 機能をセットアップしようとしています。まず、Saver(sharded=True) の割り当てが発生すると、「保存する変数がありません」というエラーが表示されます。それはさておき、テキストサムデコードを介して結果をエクスポートするために、「classification_signature」および「named_graph_signature」変数に何を割り当てる必要があるのか もわかりません。
私がここで欠けているものについての助け...確かにそれは少しです。
tensorflow - 再トレーニングされた inception-v3 モデルの「チェックポイント」を取得するにはどうすればよいですか?
tensorflow-serving で再トレーニングされた inception-v3 モデルを使用しようとしています。しかし、「チェックポイント」を提供する必要があるようです。これらの「チェックポイント」を取得するにはどうすればよいのでしょうか。はretrain.py
私に a を返しますretrained_graph.pb
。このチュートリアルに従いました ( https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/#0 )
ありがとうございました!
tensorflow - TensorFlow Servings model_server にロードされた TensorFlow の Wide および Deep モデルで予測を行う方法
TensorFlow Serving の model_server にロードされた TensorFlow のワイドおよびディープ ラーニング モデルで予測を行うのを手伝ってくれる人はいますか?
誰かが私にリソースやドキュメントを教えてくれれば、本当に役に立ちます。
tensorflow - Tensorflow クロスデバイス通信
Tensorflow の論文が述べているように、Tensorflow のクロスデバイス通信は、「受信ノード」と「送信ノード」をデバイスに追加することによって実現されます。
私の理解では、デバイス (CPU デバイスのみが関与していることを考慮してください) は、操作の計算を実行する責任があります。ただし、データ(例:操作から生成されたテンソル、変数バッファ)はメモリに常駐します。あるデバイスから別のデバイスへのデータ転送が物理的にどのように行われるのかわかりません。データ転送は共有メモリによって実現されると思います。そうですか?
データ転送がどのように行われるかについての説明/対応するコードをいただければ幸いです。PS: TensorFlow ペーパー リンク、図 4 はクロスデバイス通信メカニズムを示しています。