Kinect SDK のアバター機能から表情データを取得することはできますか? 撮影されている顔の特定の感情の強さを取得する必要があります。たとえば、30% 幸せ、20% 驚いているなどです。これを実現することは可能ですか?
はいの場合: どのように?
そうでない場合: 非常に高価なソフトウェア以外に、他にどのような選択肢がありますか?
私の知る限り、Kinect for Windows SDK 1.5はフェイス トラッキングをサポートしており、3D メッシュをユーザーの顔に合わせて、Developer Toolkit のコンポーネントを使用して顔の特徴と頭の位置をリアルタイムで追跡できます。Kinect Developer Toolkit には、ユーザーの顔情報を抽出する方法を示す 2 つの例が用意されています。詳細については、http://msdn.microsoft.com/en-us/library/jj131043を参照してください。
これは、sdk に追加されるパイプラインのどこかで読んだと思いますが、現在のバージョンにはありません。機能を追加できるオープンソースの代替手段がどこかにあるかもしれませんが、それは公式の SDK ではなく OpenNI 向けに設計されている可能性があります。