私は、一連の Kinect カメラを使用したマルチビュー テレプレゼンス プロジェクトに取り組んでいます。
視覚的な品質を向上させるために、前景を抽出する必要があります。たとえば、中央に立っている人は、深度画像ではなくカラー画像を使用します。これは、より信頼性の高いカラー画像を使用して深度画像のアーティファクトを修復したいためです。 .
ここでの問題は、前景オブジェクト (通常は 1 ~ 2 人) が、テレプレゼンス システムの別のパーティを表示する巨大なスクリーンの前に立っており、このスクリーンが一部のキネクトで表示されていることです。これらのキネクトの前景を抽出することはまだ可能ですか? もしそうなら、正しい方向に私を向けることができますか?
既存のシステムに関する追加情報:
すべてのキネクトの深度マップをマージするシステムが既に実行されていますが、これだけでは十分ではありません。Kinect 深度センサーには、干渉やセンサーまでの距離など、多くの問題があります。また、色センサーと深度センサーがわずかにずれているため、深度データを使用して再構築されたメッシュに色 (テクスチャなど) をマッピングすると、人の床がマッピングされることがあります。
これらの問題はすべて深度データの全体的な品質を低下させますが、カラー データは低下させません。そのため、カラー イメージのシルエットを「本物の」シルエットと見なし、深度のシルエットを「壊れた」シルエットと見なすことができます。それにもかかわらず、メッシュは深度データを使用して構築されます。したがって、深度データを改善することは、システムの品質を改善することと同じです。
シルエットがある場合は、シルエットの外側にある誤った深度値を削除/変更したり、不足している深度値を内側に追加したりできます。
提供できるすべてのヒントに感謝します。