問題タブ [apache-tvm]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
56 参照

python - TVM Docker コンテナに libtvm.so と libtvm_runtime.so が見つかりません

Apache TVM は初めてです。

tvm.ci_cpu:latestチュートリアルhttps://tvm.apache.org/docs/install/docker.html#docker-sourceで説明されている名前の docker イメージをビルドして起動しようとしました。

チュートリアルhttps://tvm.apache.org/docs/tutorial/tvmc_command_line_driver.html#using-tvmctvmcで説明されているように、docker コンテナー内で Python アプリケーションを使用しようとしました。

次に、次のエラーが発生しました。

上記の記事に記載されている別の方法を使用しようとしましたが、次の新しいエラーが発生しました。

自分で作成したものではなく、次のサードパーティの docker イメージをプルして使用しようとしました。

しかし、私はまだ以前と同じ問題に遭遇しました。

なぜ?私はまったく知りませんでした。

なにか提案を?ありがとう。

0 投票する
0 に答える
14 参照

tensorflow - TensorFlow Serving はコンパイルされたランタイムでの推論をサポートしていますか?

TF Serving で推論コンパイラ (特にONNXRuntimeTVMまたはTensorRT ) によって最適化されたモデルを提供することは可能ですか? それとも、TF Serving は、TensorFlow ランタイムで、TensorFlow によって作成された SavedModel のみを提供できますか?