問題タブ [tensorflow-serving]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android の Tensorflow の例
Tensorflow は、Android アプリで tensorflow を使用する例として、このチュートリアルを提供しています。
アプリを正常にビルドし、デバイスで起動しました。コードも読みました。
しかし、ここから先がわかりません!与えられたトレーニング データの精度を計算する tensorflow コードがあります。
自分の Android アプリでそのモデルを使用するにはどうすればよいですか。テンソルフローの説明は、ビルド手順を超えていません。
助けてください!
tensorflow - Tensorflow モデルのフリーズ
私は現在、TensorFlow Model のトレーニングとエクスポートに従っています。
各ステップで次のように生成されます。
これらのファイルを取得してフリーズ モデルを作成するにはどうすればよいですか(たとえば、 を使用してfreeze_graph.py
)?
freeze_graph.py
が必要なように見えますGraphDef
が、私が持っているのはMetaGraph
ファイルだけです。最初にこれを抽出する必要がありますか?
export-00000-of-00001
「ロードする TensorFlow 変数ファイル」にファイルを使用できますか?
モデルをフリーズしようとするときに渡すべき他のフラグはありますか?
tensorflow - im2txt チェックポイント モデルをエクスポートする例はありますか?
トレーニング済みの im2txt モデル チェックポイントをエクスポートするのが難しいと感じています。既にトレーニング済みshow and tell
またはその他の画像キャプション モデルをエクスポートする方法に関するドキュメントの例はありますか?
tensorflow - tensorflow グラフをエクスポートして構築した後のエラー
モデルを正常にトレーニングし、freeze_graph.py でグラフをエクスポートし、bazel を使用してカスタマイズされた /tensorflow/examples/label_image/main.cc でビルドした後、次のランタイム エラーが発生します。
前のステップはすべて成功しており、[150, 4] について疑問に思っているため、かなり混乱しています。私の batch_size は 150 で、4 はクラスの数ですが、なぜこのテンソルがローカル レイヤーの matmul 操作の入力なのですか? このコードは local3 レイヤーを示しています。pool4 レイヤーは次のようになります [150x10x10x6]
モデルについては、tensorflow の cifar10-tutorial を出発点として使用しました。私の local3 レイヤーは、チュートリアルのレイヤーにかなり依存しています。
tensorflow - Tensorflow Serving - servable のバージョンなしベースパスの下にある
現在、テンソルフロー サービングを使用して、トレーニング済みの「textsum」モデルを提供しようとしています。私はTF 0.11を使用しています。これは、いくつか読んだ後、エクスポートされたファイルckptおよびckpt.metaファイルを作成する export_meta_graph を自動的に呼び出すようです。
textsum/log_root ディレクトリの下に、複数のファイルがあります。1 つはmodel.ckpt-230381で、もう1 つは model.ckpt -230381.metaです。
したがって、これは、提供するモデルをセットアップしようとするときにポイントできる場所であると理解しています。以下のコマンドを発行しました。
上記のコマンドを実行すると、次のメッセージが表示されます。
W tensorflow_serving/sources/storage_path/file_system_storage_path_source.cc:204] ベース パス tf_models/textsum/log_root/ の下に、提供可能なモデルのバージョンが見つかりません
チェックポイント ファイルで inspect_checkpoint を実行すると、次のように表示されます。
エクスポートするために必要なことを誤解していませんか? モデルが見つからない理由についてのアイデアはありますか?
python - 基本的な Tensorflow モデルを Google Cloud ML にエクスポートする
ローカル tensorflow モデルをエクスポートして Google Cloud ML で使用し、予測を実行しようとしています。
私はmnist data を使用した tensorflow サービングの例に従っています。入力/出力ベクトルの処理方法と使用方法にはかなりの違いがあり、オンラインの典型的な例では見られません。
署名のパラメーターを設定する方法がわかりません:
これが私のコードの残りの部分です:
これを Google Cloud ML にアップロードして使用するための正確な手順は何ですか? 彼らのウォークスルーは、ローカル マシンではなく、クラウド自体でトレーニングされたモデル向けのようです。
tensorflow - Tensorflow グラフ間同期トレーニングで作成された勾配キューとトークン キューはどこにありますか
Tensorflow グラフ間同期トレーニング アプリケーションに取り組んでいます。同期トレーニングは、クラス SyncReplicasOptimizerV2 によって実現されます。クラス SyncReplicasOptimizerV2のドキュメントから、同期のために一連の勾配キューとトークン キューが作成されることを理解しています。
私は考えていた
- これらのキューはどこにありますか? チーフ ワーカー タスクまたは ps タスクですか? グラデーション キューがチーフ ワーカーにある場合、私の知る限り、チーフ ワーカー タスクもチェックポイント、初期化、要約を処理する必要があります...
- この単一のチーフ ワーカー タスクは、パフォーマンスのボトルネックになりやすいですか?
- 異なるワーカー タスク (チーフを除く) 間のネットワーク通信はありますか? はいの場合、ネットワーク通信は何のために存在しますか?
PS:私の質問はすべて、各タスクが異なるマシンにあるグラフ間複製トレーニングを実施するシナリオにあります。