問題タブ [inference-engine]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
fuzzy-logic - 推論エンジン - 明確でファジーな事実を持つハイブリッド ルール
3 種類のルールを推論する推論ファジー エンジンを作成したいと考えています。
- きびきびとしたルール。
- あいまいなルール。
- 明確な事実とあいまいな事実の両方を含むハイブリッド ルール。
各ルールには、仮説セット、結論セット、および確実性係数があります。セットの事実では、事実が曖昧な事実である場合、ある程度の真実があります。
クリスプ ルールとファジー ルールを推論するチュートリアルがありますが、ハイブリッド ルールを推論するにはどうすればよいですか?
neo4j - Neo4jで推論または推論する方法は?
Neo4j でセマンティック グラフを作成しました。Neo4jでOWL推論を使用する可能性はありますか? それとも推論エンジン?
ここで言及されていますが、これに対する解決策やAPIが見つかりません。
アドバイスありがとうございます!
c++ - TensorRT C++ API で書かれた TensorRT モデルで半精度推論を実行する方法は?
TensorRT C++ API でネイティブに記述されたモデル (caffe、tensorflow などの他のフレームワークから解析されていない) で半精度推論を実行しようとしています。私の知る限り、この問題の公開された実例はありません。私が見つけた最も近いものは、TensorRT 4.0.0.3でリリースされた sampleMLP サンプル コードですが、リリース ノートには fp16 のサポートはないと書かれています。
私のおもちゃのサンプル コードは、このリポジトリにあります。これには、API で実装されたアーキテクチャと推論ルーチンに加えて、トレーニング済みの重みの辞書を wtd TensorRT 形式に変換するために使用する Python スクリプトが含まれています。
私のおもちゃのアーキテクチャは、1 つの畳み込みだけで構成されています。目標は、fp32 と fp16 の間で同様の結果を得ることですが、妥当な精度の損失を除きます。コードは fp32 で動作するようですが、fp16 推論の場合に得られるのは、まったく異なる桁数 (~1e40) の値です。変換中に何か間違ったことをしているようです。
問題を理解するための助けをいただければ幸いです。
ありがとう、
へ
computer-vision - CustomLayerMapping.xml でモデルを変換した後、openvino 推論エンジンをシステム カフェに戻すにはどうすればよいですか?
すべての推論は CPU 上で実行される予定です。システム カフェにフォールバックするレイヤーを指定すると、モデルが IR に正常に統合されました。ただし、cpp コードをどのようにコーディングおよびコンパイルして、ユーザー フォールバック レイヤーに移動するか、および libcaffe の場所を知らせる必要があります。