問題タブ [detectron]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Detectron2 を使用して、トレーニング済みモデルの結果をビデオにプロットするにはどうすればよいですか?
私はDetectron2を初めて使用します。ローカル ドライブからビデオをロードしたい。次に、Detectron2 の VideoVisualizer を使用して、トレーニング済みのモデルを使用して検出を行います。
これに関するチュートリアルを見つけようとしました。しかし、それは存在しません。どうすればいいですか?
ありがとうございました
python - クラスのインスタンスを新しいインスタンスに置き換える
私はdetectron2オブジェクト検出に取り組んでいます。検出されたオブジェクトのフィルタリングで問題に直面しています。
detectron2 の予測出力は次のとおりです。
フィルタリングを行い、予測されたオブジェクト クラス、スコア、およびボックスを含む新しいリスト (dict) を作成しました。これを画像にプロットして視覚化したかった:
フィルタリング コード:
これで、次のようにフィルター処理された値を取得できます。
この値を Visualizer に渡すときに、次のエラーが発生します。
元の出力のデータ型はクラス インスタンスです。
新しく作成されたフィルター処理された出力の出力は、リスト (dict) です。
私の目的は、フィルタリングされたスコアに基づいて境界ボックスをプロットすることです。出力の元の値を置き換えようとしましたが、成功しませんでした。これを手伝ってください。
pytorch - 境界ボックスの位置とサイズが正しくありません。精度を改善するにはどうすればよいですか?
セグメンテーション タスクを解決するために detectron2 を使用しています。オブジェクトを 4 つのクラスに分類しようとしているため、COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yamlを使用しました。私は 4 種類の拡張変換を適用しましたが、トレーニング後、総損失は約 0.1 になりました。
しかし、何らかの理由で、テスト セットの一部の画像ではbbox の精度が高くありません。bbox が大きくまたは小さく描画されているか、オブジェクト全体をカバーしていません。
さらに、オブジェクトが 1 つしかないにもかかわらず、いくつかの異なるオブジェクトがあると想定して、予測子がいくつかの bbox を描画することがあります。
精度を向上させる方法について何か提案はありますか?
この問題を解決するための適切な方法はありますか?
提案や参考資料は役に立ちます。