0

onnx AI モデル ファイルを nvidia tensorrt ファイルに変換しようとしています。ハードウェア: NVIDIA xavier AGX。tensorrt のバージョンとハードウェア情報:

NVIDIA Jetson AGX ザビエル [16GB]

  • ジェットパック 4.5.1 [L4T 32.5.1]
  • NV 電力モード: MAXN - タイプ: 0
  • jetson_stats.service: アクティブ
  • ライブラリ:
    • CUDA: 10.2.89
    • cuDNN: 8.0.0.180
    • テンソルRT: 7.1.3.0
    • ビジョンワークス: 1.6.0.501
    • OpenCV: 3.4.15-dev コンパイル済み CUDA: いいえ
    • VPI: ii libnvvpi1 1.0.15 arm64 NVIDIA ビジョン プログラミング インターフェイス ライブラリ
    • バルカン: 1.2.70

ただし、コードを実行すると

with trt.Builder(TRT_LOGGER) as b, b.create_network(explicit_batch) as n, trt.OnnxParser(n, TRT_LOGGER),

次のエラーが表示されます。

onnx ファイルから fp32 TensorRT エンジンをビルドしています...
ONNX ファイルの解析を開始しています
[TensorRT] 警告: onnx2trt_utils.cpp:220: ONNX モデルは INT64 の重みで生成されていますが、TensorRT は INT64 をネイティブにサポートしていません。INT32にキャストダウンしようとしています。
onnx ファイルの解析中に 1 個のエラーが見つかりました。

Onnx モデル ファイル: Conv パッド: 1, 1, 2, 2.

誰もそれを修正する方法を知っていますか?

4

0 に答える 0