問題タブ [tensorflow-serving]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
592 参照

linux - TensorFlow モデルは Linux/Unix サービスとして実行できますか?

TensorFlow の高レベル機械学習 API (tf.contrib.learn) を使用して TensorFlow モデルを構築しました。このモデルを Linux/Unix サービスとして実行する必要があります。または、モデルを実行可能ファイルとしてエクスポートします。これは可能ですか?はいの場合、どうすればそうできますか?

どんな助けでも大歓迎です。

0 投票する
0 に答える
748 参照

python - tensorflow contrib.learn export をエクスポートして tensorfow_serving にエクスポートする

tf.contrib.learn.DNNLinearCombinedClassifiertensorflow サービング用のインスタンスをエクスポートしようとしています。次のコードを実行する場合:

次の警告が表示されます。

警告: tensorflow: use_deprecated_input_fn=True を指定して (tensorflow.contrib.learn.python.learn.estimators.estimator から) export を呼び出すことは非推奨であり、2016 年 9 月 23 日以降に削除されます。更新の手順: export によって受け入れられる input_fn の署名は、tf.Learn Estimator の train/evaluate によって使用されるものと一致するように変更されています。input_fn と input_feature_key は必須の引数になり、use_deprecated_input_fn はデフォルトで False になり、完全に削除されます。

問題は、今のところこの警告を無視してもいいですか? もう 1 つの質問ですが、クライアントのコードをどのように記述すればよいでしょうか? protobuf を正しく準備するにはどうすればよいですか?

mnist クライアントの場合、protobuf次のように準備されていることがわかります。

contrib.learnエスティメータで使用される特徴列に対して同じことを行うにはどうすればよいですか? たとえば、機能列が次のようになっているとしますか?

...そしてhttps://www.tensorflow.org/versions/r0.11/tutorials/wide/index.htmlinput_fnなどのチュートリアルの 1 つから、クライアントから送信する実際のデータが提供されます。

アップデート:

エクスポートとクライアントの組み合わせを実行しましたが、結果が正しくありません。エクスポート コードの一部は次のとおりです。

クライアントコードの一部は次のとおりです。

ご覧のとおり、pandas データフレームから抽出されたすべての入力列を という 1 つのテンソル プロトとして送信しようとしていますx_values。これは正しいですか、それとも特徴列ごとに入力を作成する必要がありますか?

0 投票する
2 に答える
439 参照

google-app-engine - Tensorflow トレーニング済みモデルをサービスとして使用する

テンソルフローを始めたばかりです。作成したデータセットに対して正常にトレーニングできました。問題は、このモデルをどのように使用して予測を行うことができるかということです。値を渡して予測を応答として取得できる REST サービスとして作成したいと考えています。役立つリンクも歓迎します。モデルは現在 VM 上にあります。

ありがとう :)

0 投票する
0 に答える
475 参照

tensorflow - TensorFlow サービング用に Textsum をセットアップする方法

tensorflow サービングを使用して textsum のデコード機能をセットアップしようとしていますが、MNIST チュートリアルを介して実行するために完全に必要なものを完全に理解できていません。Tensorflow サービング モデルの設定に関する他のチュートリアルや、textsum に合わせたものに出くわした人はいますか? どんな助けや指示も素晴らしいでしょう。ありがとう!

最後に、ここにある seq2seq_attention.py の「train」でトレーニングされたモデルからデコード機能をエクスポートしようとしています: https://github.com/tensorflow/models/blob/master/textsum/seq2seq_attention.py

以下の 2 つのファイルを比較して、上記の textsum モデルに対して何を実行する必要があるかを理解するとき、「default_graph_signature、入力テンソル、classes_tensor など」で何を割り当てる必要があるかを理解するのに苦労しています。 textsum モデルと一致しない可能性がありますが、これは私が解決しようとしているものであり、テンソルフローのサービスにエクスポートされている他のモデルを見た場合、おそらくもう少し意味があるかもしれません。

比較: https://github.com/tensorflow/tensorflow/blob/r0.11/tensorflow/examples/tutorials/mnist/mnist_softmax.py

https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/mnist_export.py

- - - - - - - - - 編集 - - - - - - - - - -

以下は私がこれまでに持っているものですが、いくつかの問題があります。サービス提供のために Textsum Eval 機能をセットアップしようとしています。まず、Saver(sharded=True) の割り当てが発生すると、「保存する変数がありません」というエラーが表示されます。それはさておき、テキストサムデコードを介して結果をエクスポートするために、「classification_signature」および「named_graph_signature」変数に何を割り当てる必要があるのか​​ もわかりません。

私がここで欠けているものについての助け...確かにそれは少しです。

0 投票する
2 に答える
1608 参照

tensorflow - 再トレーニングされた inception-v3 モデルの「チェックポイント」を取得するにはどうすればよいですか?

tensorflow-serving で再トレーニングされた inception-v3 モデルを使用しようとしています。しかし、「チェックポイント」を提供する必要があるようです。これらの「チェックポイント」を取得するにはどうすればよいのでしょうか。はretrain.py私に a を返しますretrained_graph.pb。このチュートリアルに従いました ( https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/#0 )

ありがとうございました!

0 投票する
2 に答える
1433 参照

tensorflow - TensorFlow Servings model_server にロードされた TensorFlow の Wide および Deep モデルで予測を行う方法

TensorFlow Serving の model_server にロードされた TensorFlow のワイドおよびディープ ラーニング モデルで予測を行うのを手伝ってくれる人はいますか?

誰かが私にリソースやドキュメントを教えてくれれば、本当に役に立ちます。

0 投票する
1 に答える
1410 参照

tensorflow - Tensorflow クロスデバイス通信

Tensorflow の論文が述べているように、Tensorflow のクロスデバイス通信は、「受信ノード」と「送信ノード」をデバイスに追加することによって実現されます。

私の理解では、デバイス (CPU デバイスのみが関与していることを考慮してください) は、操作の計算を実行する責任があります。ただし、データ(例:操作から生成されたテンソル、変数バッファ)はメモリに常駐します。あるデバイスから別のデバイスへのデータ転送が物理的にどのように行われるのかわかりません。データ転送は共有メモリによって実現されると思います。そうですか?

データ転送がどのように行われるかについての説明/対応するコードをいただければ幸いです。PS: TensorFlow ペーパー リンク、図 4 はクロスデバイス通信メカニズムを示しています。