私は最近、この論文で説明されている手法に従って認識ソフトウェアを実装しました。ただし、私のデータセットには、OpenNI で取得した深度マップも含まれています。
深度情報を使用して認識エンジンの堅牢性を高めたいと考えています。VFH記述子を抽出した後、弓の応答ヒストグラムを計算する1対すべてのSVMをトレーニングすることについて考えました(このタスクにOpenCV DescriptorExtractorインターフェースを採用しました)。しかし要点は、2 つのことをどのように組み合わせて、より正確な結果を得ることができるかということです。誰かが私にこれのための戦略を提案できますか?
Ps私は、オブジェクトをkinectに直接表示するレコグナイザーをテストしたいと思います(現在行っているように、トリミングされた画像をレコグナイザーにフィードしません)。