問題タブ [apache-tvm]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - TVM Docker コンテナに libtvm.so と libtvm_runtime.so が見つかりません
Apache TVM は初めてです。
tvm.ci_cpu:latest
チュートリアルhttps://tvm.apache.org/docs/install/docker.html#docker-sourceで説明されている名前の docker イメージをビルドして起動しようとしました。
チュートリアルhttps://tvm.apache.org/docs/tutorial/tvmc_command_line_driver.html#using-tvmctvmc
で説明されているように、docker コンテナー内で Python アプリケーションを使用しようとしました。
次に、次のエラーが発生しました。
上記の記事に記載されている別の方法を使用しようとしましたが、次の新しいエラーが発生しました。
自分で作成したものではなく、次のサードパーティの docker イメージをプルして使用しようとしました。
しかし、私はまだ以前と同じ問題に遭遇しました。
なぜ?私はまったく知りませんでした。
なにか提案を?ありがとう。
tensorflow - TensorFlow Serving はコンパイルされたランタイムでの推論をサポートしていますか?
TF Serving で推論コンパイラ (特にONNXRuntime、TVMまたはTensorRT ) によって最適化されたモデルを提供することは可能ですか? それとも、TF Serving は、TensorFlow ランタイムで、TensorFlow によって作成された SavedModel のみを提供できますか?