TF Serving で推論コンパイラ (特にONNXRuntime、TVMまたはTensorRT ) によって最適化されたモデルを提供することは可能ですか? それとも、TF Serving は、TensorFlow ランタイムで、TensorFlow によって作成された SavedModel のみを提供できますか?
TF Serving で推論コンパイラ (特にONNXRuntime、TVMまたはTensorRT ) によって最適化されたモデルを提供することは可能ですか? それとも、TF Serving は、TensorFlow ランタイムで、TensorFlow によって作成された SavedModel のみを提供できますか?