問題タブ [tensorflow-serving]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-2.7 - 分散型 TensorFlow の例が TensorFlow 0.9 で機能しない
自分のコンピューターで同じオペレーティング システムと Python バージョンを使用して、この tensorflow 分散チュートリアルを試しています。最初のスクリプトを作成してターミナルで実行した後、別のターミナルを開いて 2 番目のスクリプトを実行すると、次のエラーが発生します。
公式の配布チュートリアルを試すと、同様のエラーが発生します。
編集:同じパッケージを使用している別のマシンでこれを試したところ、次のエラーログが表示されました:
問題は何ですか?
tensorflow-serving - session_bundle 内の manifest_pb2 はどこにありますか?
次のスニペットを使用して、以前にトレーニングされたモデル (pb) をサービスに使用するためにエクスポートしようとしています
ただし、exporter.py の manifest_pb2 が見つかりません。このアプローチで何か基本的なことが欠けていますか?
docker - Docker での Tensorflow Serving | 長く書きすぎ
チュートリアル「Using TensorFlow Serving via Docker」に従おうとしています: https://tensorflow.github.io/serving/docker
以下のエラーが表示されます。
tensorflow - Why do we need to worry about the batch dimension when specifying a model in Tensorflow?
It seems a bit cumbersome to take into account the batch dimension for every layer in a neural network. Why don't we have some functionality in Tensorflow that can just set the batch size for an entire model?
tensorflow - 画像入力を使用した Tensorflow Serving
tensorflow を使用して分類するために、http 経由で画像入力を送信しようとしています。https://www.tensorflow.org/versions/r0.9/tutorials/image_recognition/index.htmlの C++ コードを詳しく調べました。
C++ API を使用して inception-v3 サンプル モデルを実装しました。次の形式で画像入力を受け取ります。
ただし、次の場合を追加します。
これは、ローカルの画像ファイルのみを受け入れるためです。オンライン画像からファイル ポインタを取得し、メモリ内で分類する機能を追加したいと考えています。私は現在これに取り組んでいますが、今のところ運がありません。これを実装する方法について誰かが洞察を提供できますか?
c++ - Tensorflow Serving bazel ビルド エラー: mnist_inference_2.cc - 署名が宣言されていません
https://tensorflow.github.io/serving/serving_advanced.htmlから tensorflow サービングの例を複製しようとしています
しかし、次のエラーが発生します。Tensorflow ライブラリ エラーの可能性があります。どんな助けでも大歓迎です。
tensorflow - 分散 TensorFlow train.Supervisor 停止時の RuntimeError
inception_distributed_train.py (同期データ並列処理)とほぼ同じですが、基本的な例のデフォルトのmnist データセットを使用して、分散 TensorFlow をテストしています。
マスター ワーカー (のみ) の場合sv = tf.train.Supervisor
、クロージングの場合sv.stop()
はRuntimeError: ('Coordinator stopped with threads still running: %s', 'Thread-4')
.
同時に、ps
ノード上で logs が表示Variable:0: Skipping cancelled dequeue attempt with queue not closed
され、変数 1 ~ 7 についても同様に表示されますが、興味深いことに、 として定義され、 に渡された変数 8 については表示さglobal_step = tf.Variable(0)
れません。tf.train.SyncReplicasOptimizer
minimize
global_step
このエラーは誰かにベルを鳴らしますか? 自分のロジックがinception_distributed_train.pyのロジックとどこが違うのか本当にわかりません