4

可変長のシーケンスがたくさんあります。これらについて、(部分) シーケンスの可能な継続を予測するために後で使用する隠れマルコフ モデルをトレーニングしたいと考えています。これまでに、HMM を使用して未来を予測する 2 つの方法を見つけました。

1) 継続を幻覚し、その継続シーケンスの可能性を取得します。あなたの予測として最も可能性が高いものを選択してください。この方法では、継続に使用できる値を明確に知っている必要があります。

2) ビタビ アルゴリズムを (部分) シーケンスで使用して、最も可能性の高い隠れ状態シーケンスを取得します。このシーケンスの最後の隠れ状態の放出分布を取り、たとえばその分布の平均を予測します (これは多くの場合、ガウスです)。

ここで私の質問は次のとおりです。HMM を使用して未来を予測するための、おそらくもっと原則的な方法は他にあるでしょうか?

ありがとう!

4

1 に答える 1

0

HMM のマルコフ仮定では、時間 T+1 での状態は、T に条件付けられた、T より前のすべての状態から独立していると述べられています。

オプション 2 は、最後の状態への最尤割り当てを使用していることを除いて、私が提案するものに近いです。代わりに、シーケンス内の最後の項目の非表示状態の分布を計算してください。これは、ビタビ アルゴリズムの「最大値」を「合計値」に置き換えることになります。( https://www.coursera.org/course/pgmを参照して、「積和」アルゴリズム、別名信念伝播を検索してください)。

次に、未来をサンプリングするには、最初に、分布が与えられた最後の状態をサンプリングします。次に、遷移行列を使用して次の隠れ状態をサンプリングし、嫌な思いを繰り返します。シーケンスの最後のポイントの後に実際の観測がないため、マルコフ連鎖からサンプリングしています。これにより、部分シーケンスについて知っているすべてのことを考えると、未来のサンプルが得られます。これが Viterbi と異なる理由は、部分代入の隠れ変数への最も可能性の高い代入でさえ、可能性が低い可能性があるためです。最後の状態の分布全体を使用することで、次の (観測されていない未来の) 状態をより正確に推定できます。

于 2016-05-17T11:11:32.817 に答える