問題タブ [tensorrt]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - TensorRT python パッケージが python 3.6 と互換性がない
実行ファイルを使用して CUDA をインストールした場合、 TensorRT 4をその tar ファイルからインストールすることが唯一の利用可能なオプションです。ただし、tar ファイルには、python 2.7 および 3.5 用の python TensorRT wheel ファイルのみが含まれています。Python 3.6 ホイール ファイルが提供されていません。
Python 3.6 システムに Python 3.5 wheel ファイルを強制インストールできません。
また、TensorRT を使用するためだけに新しい python 3.5 virtualenv を作成することはできません。
ファイルを手動でコピーして、このパッケージを Python 3.6 プラットフォームに手動でインストールする方法はありますか?
c++ - TensorRT C++ API で書かれた TensorRT モデルで半精度推論を実行する方法は?
TensorRT C++ API でネイティブに記述されたモデル (caffe、tensorflow などの他のフレームワークから解析されていない) で半精度推論を実行しようとしています。私の知る限り、この問題の公開された実例はありません。私が見つけた最も近いものは、TensorRT 4.0.0.3でリリースされた sampleMLP サンプル コードですが、リリース ノートには fp16 のサポートはないと書かれています。
私のおもちゃのサンプル コードは、このリポジトリにあります。これには、API で実装されたアーキテクチャと推論ルーチンに加えて、トレーニング済みの重みの辞書を wtd TensorRT 形式に変換するために使用する Python スクリプトが含まれています。
私のおもちゃのアーキテクチャは、1 つの畳み込みだけで構成されています。目標は、fp32 と fp16 の間で同様の結果を得ることですが、妥当な精度の損失を除きます。コードは fp32 で動作するようですが、fp16 推論の場合に得られるのは、まったく異なる桁数 (~1e40) の値です。変換中に何か間違ったことをしているようです。
問題を理解するための助けをいただければ幸いです。
ありがとう、
へ
python - TensorFlow: Python で tensorRT の消費電力を決定する
Python で書かれた tensorRT スクリプトの消費電力を計算しようとしています。CUDA には がありnvprof cuda_script
ますが、私の Python スクリプトではそのようなものを見つけることができませんでした。
Pythonに似たものはありますか?p100/v100 の消費電力はどのように計算していますか?
Nvidia GPU の場合はこのようなもの - Python スクリプトの CPU 使用率をプロファイルする方法は?