Kinect の RGB 画像と深度画像の両方を png 形式で持っています。流域セグメンテーションで深度データを使用しようとしていますが、両方のデータを組み合わせてより正確な結果を得る方法がわかりません。いくつかの論文をチェックしましたが、結果を理解できなかったか、流域アルゴリズム専用に書かれた解決策を見つけることができませんでした。セグメンテーション プロセスの基準点として深度データを含めるにはどうすればよいですか?
MatLab の Image Processing Toolbox を使用しています。
画像は Nathan Silberman et. Silberman の Web サイトにある al. のデータベース
RGB 画像とそれに対応する深度ファイルの例を以下に示します (元はバイナリ画像であった深度画像が uint8 に変換されることに注意してください)。
更新:各チャネル (赤、緑、青、深さ) を取得し、それらの重みを計算することにより、深さデータと共に RGB ソースから加重グレースケール イメージを作成しようとしました。次に、対応するすべてのピクセルの重みを掛けた値を含めます。しかし、結果として得られるグレースケール イメージでは、結果が大幅に改善されるわけではありません。RGB ベースのセグメンテーションよりも優れているわけではありません。このアプローチに従えば、他に何ができるでしょうか? または、深度データの効果を確認するにはどうすればよいですか?