特定の手の位置 (または手の記号) をリアルタイムで検出できるアプリケーションを開発することを期待して、私のチームと私は数か月前にハール分類に出くわしました。私たちは、これが仕事に理想的なツールになると考えました。ただし、独自の分類子を作成しようとしているときに問題が発生しています (OpenCV を使用しています)。ほとんどの場合、対象のオブジェクトをキャプチャしていません (以下の 2 番目の質問を参照)。
この件に関して 2 つの質問があります。
- 私たちは多くのリソースを検索しました (私は現在これに関する 100 万と 1 つのタブを開いています)、独自の分類子をトレーニングする確実な方法はないようです。柔軟性 (性差、体重、手の指輪など) を考慮しながら、正確な分類器を作成するために非常に重要な指針は何ですか?
- 多数のポジティブ (1000) とネガティブ (3000) を使用してみました。
- さまざまな照明条件、さまざまな個人の手、わずかに異なる手の角度を使用しました。
- カスケードの段数を変えました
- haar 分類子の検出では、トレーニング プロセスによって作成されたしきい値を使用して「haar に似た」特徴検出が使用されることを理解しています。トレーニング プロセスによってしきい値が作成されるため、トレーニングで使用されたポジティブ イメージに対して分類子を実行すると、ポジティブ サンプルで使用されたイメージが常に検出されると思いました。私はこれを試みましたが、そうではないことがわかりました.私の陽性画像の5.8%だけが画像を含んでいることがわかりました. 理論的には、私の陽性画像の ~ 100% がトレーニングされた分類子によって検出されるはずだと仮定するのは間違っていますか? または、トレーニングプロセスが間違っていますか?
非常に役立つ情報源は次のとおりです。
- http://note.sonots.com/SciSoftware/haartraining.html
- http://coding-robin.de/2013/07/22/train-your-own-opencv-haar-classifier.html
そしてもちろん、opencv カスケード トレーニング ページ。
この問題について何か助けていただければ幸いです。どうもありがとう!