GPU インスタンスを使用して、framework_version='1.12.0'
とでスクリプト モードを使用して、SageMaker で Tensorflow Estimator を適合させました。python_version='py3'
デプロイ インスタンス タイプを GPU として選択した場合、この推定器でデプロイを直接呼び出すことができます。ただし、CPU インスタンス タイプを選択したり、アクセラレータを追加しようとすると、docker がプルする対応するイメージを見つけられないというエラーで失敗します。
スクリプト モードを使用して GPU で py3 モデルをトレーニングし、CPU + EIA インスタンスにデプロイする方法を知っている人はいますか?
estimator のトレーニング アーティファクトから TensorFlowModel を作成し、モデルからデプロイするという中間ステップを実行することで、部分的な回避策を見つけましたが、これは python 3 をサポートしていないようです (やはり、対応するコンテナーが見つかりません)。python_version='py2' に切り替えると、コンテナーが見つかりますが、すべてのコードが python 3 用であるため、ヘルス チェックに合格しません。