問題タブ [kubeflow]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-cloud-platform - Google Cloud AutoML モデルはどこにデプロイされますか?
すべての Google Cloud 機械学習モデル (AI Platform/Kubeflow/AutoML など) を 1 か所で管理したいと考えています。ただし、デプロイした AutoML、特に AutoML Tables のモデルがどこにあるかわかりません。
複雑さの昇順で。AutoML モデルを AI Platform モデルに移植して、バージョンを反復できるようになることを期待しています。さらに、さらにカスタマイズしたい場合は、そのモデルを Kubeflow に取り込んで、さらにカスタマイズ、バージョン管理、管理、デプロイすることもできます。
AI Platform、AutoML、Kubeflow のさまざまなモデルは、どこでどのように管理およびバージョニングされているのですか?
kubeflow - kubeflow にパイプラインをアップロードする
現在、kubeflow パイプラインをセットアップしようとしています。私のユースケースでは、パイプラインの構成が yaml/json 構造を介して提供される必要があります。パイプラインを送信するためのドキュメントを調べると、次の段落に出くわしました。
各パイプラインは Python プログラムとして定義されます。パイプラインを Kubeflow Pipelines サービスに送信する前に、パイプラインを中間表現にコンパイルする必要があります。中間表現は、.tar.gz ファイルに圧縮された YAML ファイルの形式を取ります。
zip ファイル (tar.gz) 表現の代わりに、json 表現またはその他の表現を介してパイプラインを KubeFlow にアップロード/送信することは可能ですか? ファイル (zip および tar.gz) のファイルシステムの永続性をバイパスし、それらを yaml/json 表現としてデータベースに追加する方法はありますか?