Kinect Facetracking を使用してロボット タレットを制御しようとしています。ユーザーが頭を動かすと、タレットは同じ方向に動きます。ユーザーの頭のヨー、ピッチ、ロールを取得でき、このデータを使用して砲塔を制御します。私の現在の試みは機能しますが、タレットを流動的に動かしません。動きは散発的で途切れ途切れです。私が求めているのは、滑らかな動きと滑らかな動きです。
したがって、私が抱えている主な問題は、データがリアルタイムで受信されているため、ユーザーが次に何をしようとしているのかを確実に予測できないことです。データの受信とコマンドの間のラグをできるだけ少なくする必要があります。
もう 1 つの問題は、Kinect からのデータが完全ではなく、時々少し変動することです。良いデータですが、何とかしないとカクカクします。
Kinect からのデータを可能な限り滑らかにするにはどうすればよいですか?
私にはいくつかのアイデアがありますが、あなたに影響を与えたり、私のように考えさせたりしたくはありません