onnx AI モデル ファイルを nvidia tensorrt ファイルに変換しようとしています。ハードウェア: NVIDIA xavier AGX。tensorrt のバージョンとハードウェア情報:
NVIDIA Jetson AGX ザビエル [16GB]
- ジェットパック 4.5.1 [L4T 32.5.1]
- NV 電力モード: MAXN - タイプ: 0
- jetson_stats.service: アクティブ
- ライブラリ:
- CUDA: 10.2.89
- cuDNN: 8.0.0.180
- テンソルRT: 7.1.3.0
- ビジョンワークス: 1.6.0.501
- OpenCV: 3.4.15-dev コンパイル済み CUDA: いいえ
- VPI: ii libnvvpi1 1.0.15 arm64 NVIDIA ビジョン プログラミング インターフェイス ライブラリ
- バルカン: 1.2.70
ただし、コードを実行すると
with trt.Builder(TRT_LOGGER) as b, b.create_network(explicit_batch) as n, trt.OnnxParser(n, TRT_LOGGER),
次のエラーが表示されます。
onnx ファイルから fp32 TensorRT エンジンをビルドしています...
ONNX ファイルの解析を開始しています
[TensorRT] 警告: onnx2trt_utils.cpp:220: ONNX モデルは INT64 の重みで生成されていますが、TensorRT は INT64 をネイティブにサポートしていません。INT32にキャストダウンしようとしています。
onnx ファイルの解析中に 1 個のエラーが見つかりました。
Onnx モデル ファイル: Conv パッド: 1, 1, 2, 2.
誰もそれを修正する方法を知っていますか?