問題タブ [inference-engine]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
59 参照

fuzzy-logic - 推論エンジン - 明確でファジーな事実を持つハイブリッド ルール

3 種類のルールを推論する推論ファジー エンジンを作成したいと考えています。

  • きびきびとしたルール。
  • あいまいなルール。
  • 明確な事実とあいまいな事実の両方を含むハイブリッド ルール。

各ルールには、仮説セット、結論セット、および確実性係数があります。セットの事実では、事実が曖昧な事実である場合、ある程度の真実があります。

クリスプ ルールとファジー ルールを推論するチュートリアルがありますが、ハイブリッド ルールを推論するにはどうすればよいですか?

0 投票する
3 に答える
3106 参照

neo4j - Neo4jで推論または推論する方法は?

Neo4j でセマンティック グラフを作成しました。Neo4jでOWL推論を使用する可能性はありますか? それとも推論エンジン?

ここで言及されていますが、これに対する解決策やAPIが見つかりません。

アドバイスありがとうございます!

0 投票する
1 に答える
1215 参照

c++ - TensorRT C++ API で書かれた TensorRT モデルで半精度推論を実行する方法は?

TensorRT C++ API でネイティブに記述されたモデル (caffe、tensorflow などの他のフレームワークから解析されていない) で半精度推論を実行しようとしています。私の知る限り、この問題の公開された実例はありません。私が見つけた最も近いものは、TensorRT 4.0.0.3でリリースされた sampleMLP サンプル コードですが、リリース ノートには fp16 のサポートはないと書かれています。

私のおもちゃのサンプル コードは、このリポジトリにあります。これには、API で実装されたアーキテクチャと推論ルーチンに加えて、トレーニング済みの重みの辞書を wtd TensorRT 形式に変換するために使用する Python スクリプトが含まれています。

私のおもちゃのアーキテクチャは、1 つの畳み込みだけで構成されています。目標は、fp32 と fp16 の間で同様の結果を得ることですが、妥当な精度の損失を除きます。コードは fp32 で動作するようですが、fp16 推論の場合に得られるのは、まったく異なる桁数 (~1e40) の値です。変換中に何か間違ったことをしているようです。

問題を理解するための助けをいただければ幸いです。

ありがとう、

0 投票する
1 に答える
317 参照

computer-vision - CustomLayerMapping.xml でモデルを変換した後、openvino 推論エンジンをシステム カフェに戻すにはどうすればよいですか?

すべての推論は CPU 上で実行される予定です。システム カフェにフォールバックするレイヤーを指定すると、モデルが IR に正常に統合されました。ただし、cpp コードをどのようにコーディングおよびコンパイルして、ユーザー フォールバック レイヤーに移動するか、および libcaffe の場所を知らせる必要があります。