問題タブ [kubeflow]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - ローカル モデル リポジトリの設定方法 - Minio を使用した Tensorrt 推論サーバー
こんにちは、MinIO にあるリポジトリを使用して、Kubeflow - NVIDIA TensorRT 推論サーバーをセットアップしたいと考えています。
gs://inference-server-model-store/tf_model_storeを Minio に接続するように変更する方法がわかりません。
tensorflow - KubeFlow で提供される TFjob の CPU 使用率を指定/増加するにはどうすればよいですか?
Kustomize を使用して最新バージョンで KubeFlow を実行する GKE セットアップがあります。マスター TFJob は、完全なモデルの Docker イメージをプルして実行します。CPU 使用量を増やしたいのに、それができないように見えるという単純な問題が発生しています。
これは、Docker モデル コード、Kubernetes 構成、TFJob yaml、またはその他の場所で指定する必要がありますか?
コンテナーの CPU リソースの最小サイズと制限を指定してみました。マスターポッドにも指定しようとしましたが、更新されていないようです。
また、これに関するドキュメントや同様の質問はあまりありません。