問題タブ [onnxruntime]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 並列でスレッドを実行すると、Python で順次実行するよりも時間がかかります
2 つの ONNX ディープ ラーニング モデルがあります。両方のモデルを並行して実行したい。Pythonのスレッドを使用しています。しかし驚くべきことに、両方のモデルを順番に実行するよりも時間がかかります。
実行するタスク。
- モデルのクラスを作る
- そのクラスの初期化で両方のモデルをロードします。
- 与えられた入力で推論するために、両方のモデルを並行して実行します。
これは正常な動作ですか。これに対する回避策を提案してください。
python - Python statsmodels で保存されたモデル ファイルを ONNX ランタイム形式に変換できますか?
Python statsmodels から SARIMA モデルを pickle ファイルとして作成しようとしていました。保存された時系列モデルを、リアルタイムのエッジ推論のために ONNX ランタイム形式に変換したいと考えていました。しかし、私はそうする方法を見つけられませんでしたか?保存されたモデルを pickle から ONNX ランタイム形式に変換することは可能ですか?
python - ONNX 量子化モデル タイプ エラー: タイプ 'tensor(float16)'
このスクリプトを使用して、onnx モデルを float32 から float16 に変換しました。
しかし、推論時にこのエラーが発生しています。
また、これを使用して入力dtypeをfloat 16に変更しました
それでも同じエラーが発生します。これを解決するにはどうすればよいですか?