セグメンテーション タスクを解決するために detectron2 を使用しています。オブジェクトを 4 つのクラスに分類しようとしているため、COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yamlを使用しました。私は 4 種類の拡張変換を適用しましたが、トレーニング後、総損失は約 0.1 になりました。
しかし、何らかの理由で、テスト セットの一部の画像ではbbox の精度が高くありません。bbox が大きくまたは小さく描画されているか、オブジェクト全体をカバーしていません。
さらに、オブジェクトが 1 つしかないにもかかわらず、いくつかの異なるオブジェクトがあると想定して、予測子がいくつかの bbox を描画することがあります。
精度を向上させる方法について何か提案はありますか?
この問題を解決するための適切な方法はありますか?
提案や参考資料は役に立ちます。