ローカルでトレーニングされたモデルをデプロイしようとしています。モデルの準備については、こちらのすべての手順に従い、なんとかデプロイできました。
ただし、予測を取得しようとすると、オンライン予測が 502 サーバー エラーで応答し、バッチ予測が返されます。('Failed to run the inference graph', 1)
何が問題なのかを絞り込むために、より良いエラー メッセージを取得する方法はありますか?
ありがとう
ローカルでトレーニングされたモデルをデプロイしようとしています。モデルの準備については、こちらのすべての手順に従い、なんとかデプロイできました。
ただし、予測を取得しようとすると、オンライン予測が 502 サーバー エラーで応答し、バッチ予測が返されます。('Failed to run the inference graph', 1)
何が問題なのかを絞り込むために、より良いエラー メッセージを取得する方法はありますか?
ありがとう
エラー メッセージは、推論グラフのセッションを実行しているときに発生したことを示していました。モデルをローカルで使用するコードで何が起こっているのかを明らかにすることができるかもしれません。それをテストする 1 つの方法は、小さな入力データセットを作成し、それを推論グラフにフィードして、セッションをローカルで実行できるかどうかを確認することです。
その方法については、SDKのsamples/mnist/deployable/にあるlocal_predict.pyを参照してください。使用例を次に示します。
python local_predict.py --input=/path/to/my/local/files --model_dir=/path/to/modeldir.
model_dir は、テンソルフロー メタ グラフのプロト ファイルとチェックポイント ファイルが保存されている場所を指していることに注意してください。それらはトレーニングによって生成されます。モデルのトレーニング方法に関するドキュメント リンクは次のとおりです。https://cloud.google.com/ml/docs/how-tos/training-models . モデル dir は GCS 上にある場合もあります。
これを取り上げてくれてありがとう。エラー報告など、サービスの全体的なエクスペリエンスを改善するために継続的に取り組んでいます。