Kinect デバイスの深度マップを使用して、さまざまな体のセグメントをクラスター化する方法について何かアイデアがあるかどうか尋ねています。問題は 2 つあります。1 つ目は、たとえば下腕と上腕のように、体のさまざまな部分をどのように識別するかです。2つ目は、閉塞部分がある場合、体の部分をどのように識別するかです。誰かが私を案内してくれれば、これを解決できることを願っています。
ご親切にありがとうございました
Kinect デバイスの深度マップを使用して、さまざまな体のセグメントをクラスター化する方法について何かアイデアがあるかどうか尋ねています。問題は 2 つあります。1 つ目は、たとえば下腕と上腕のように、体のさまざまな部分をどのように識別するかです。2つ目は、閉塞部分がある場合、体の部分をどのように識別するかです。誰かが私を案内してくれれば、これを解決できることを願っています。
ご親切にありがとうございました
スケルトン認識ミドルウェア ( Niteなど) を使用して、身体の関節 (肩、肘、指先など) の座標を取得できます。ジョイントの Z (深さ) 値を読み取った後、ボディ ジョイントの Z 値に近い Z 値を持つポイントのみを考慮することができます。
たとえば、ミドルウェアが手の Z 値が 2000mm であると伝えた場合、指と手のひらの一部であるすべてのピクセル/ポイントの Z 値は約 1900 ~ 2100mm であり、背後の壁または机は安全であると想定できます。またはユーザーの前では、Z 値が大幅に異なります。したがって、1900 ~ 2100 mm の外側のポイントは無視できます。
また、ジョイントから離れたポイントも無視する必要があります。たとえば、カメラからちょうど 2000 mm 離れている本があるかもしれませんが、ユーザーからは離れています。