現在、ジェスチャー認識アプリケーションを構築しています。手から特定の特徴を抽出しています ([動きの角度、幅: 長さの比率、...] など)。これが私の特徴ベクトルです。しかし、明らかに、隠れマルコフ モデルへの入力としてそのようなベクトルを観測することはできません。
一般情報: ジェスチャは一連の姿勢で構成されています。
したがって、ベクトル量子化を行うことを示唆する論文を見つけました。私の目的は、片側から特徴ベクトルをフィードし、整数または単純な値 (特定の状態/姿勢をマッピングする) を取得する、ある種のアルゴリズムを使用することです。次に、これらの記号のセット (完全なジェスチャをマッピング) を非表示のマルコフ モデル (
アルゴリズムの 1 つは、K 平均法クラスタリングです。残念ながら、たとえば X 個のシンボルを認識したい場合に、シンボルごとにクラスターを作成することにした場合、K は最大 X 個のクラスターを作成することを意味するため、これを使用して各状態/姿勢をマッピングすることはできません。 .
したがって、私は何らかのクラスタリング アルゴリズムが必要であると考えています。可能であれば、監視することができるので、これらの特徴ベクトルのセットを姿勢 A にマップし、他のセットを姿勢 B にマップするように指示します。
一連のベクトル [角度、幅、高さ] を入力し、「A」などの単純な記号を取得する、教師ありクラスタリング/分類アルゴリズムの形式は存在しますか?
以下は、私が生成したばかりのサンプルデータです。
姿勢A:[楕円を囲む角度、高さ:幅の比率]
- 0.802985 33.909615
- 0.722824 31.209663
- 0.734535 30.206722
- 0.68397 31.838253
- 0.713706 34.29641
- 0.688798 30.603661
- 0.721395 34.880161
姿勢 B: [姿勢 A と同じ構造]
- 0.474164 16.077467
- 0.483104 14.526289
- 0.478904 14.800572
- 0.483134 14.523611
- 0.480608 14.41159
- 0.481552 15.563665
- 0.497951 15.563585