0

回帰出力を取得するためにPythonでトレーニングされた機械学習モデルがあります。このモデルはscikit-learnでトレーニングされています

この予測をfirestoreに挿入したいのですが、クラウドスケジューラで毎日スケジュールするクラウド機能を使用して実行します。

私の質問は、このトレーニング済みの機械学習モデルをどこに保存する必要があるかということです。

  • Google ストレージに保存し、クラウド関数で呼び出して予測を取得できますか?
  • それとも AI プラットフォームに保存する必要がありますか?

  • 答えが AI プラットフォームにある場合、その理由は? AI プラットフォームに保存すると、どのような利点がありますか? そこから新しいデータを使用してモデルをトレーニングできますか?

私はこれが可能であることを読んできましたが、なぜより良いのか、どのようにそれを行うのかわかりません

4

1 に答える 1

2

あなたの質問にはいくつかの答えがあります。

モノリスを構築しますか、それとも 2 つのマイクロサービスを構築しますか:

  • モノリス、つまり、同じサービス (関数またはコンテナー) がスケジューラーによってトリガーされ、モデルをロードし、予測を実行して、firestore に保存します。
  • マイクロサービス:
    • 1 つのサービスがスケジューラによってトリガーされ、予測をリクエストして、結果を Firestore に保存します
    • 1 つのサービスがモデルをロードし、予測クエリに回答します。

モノリスの場合、AI-Platform は推奨されません。マイクロサービスでは、AI Platform で予測サービスをホストし、Cloud Functions で他のサービスをホストできます。

tensorflow を使用して、モデルをホストするための別のソリューションも提案しました。Cloud Run です。これについて記事を書きました。同じことが可能であるとあなたに言うのに十分なSciKitを知りませんが、それは良い代替手段です.

トレーニング済みモデルの保存場所について 間違いなく Cloud Storage で。また、私の記事で説明したように、コンテナを使用して Cloud Run サービスを構築した場合でも、モデルをダウンロードしてコンテナにロードします (したがって、モデルは実行時にストレージからダウンロードされるのではなく、ビルド時にのみダウンロードされます)、Cloud Storage不変オブジェクトに最適な場所です。

最後に、AI Platform に関する最後の質問です。同じ名前、いくつかのサービス。モデルをホストしてオンライン予測を実行し、モデルをトレーニングできます。同じ内部サービスでも、同じ使用法でも、同じ API でもありません。AI Platform でオンライン予測をホストするかどうかにかかわらず、新しいモデルをトレーニングするときに違いや利点はありません

于 2019-10-28T12:49:09.723 に答える