ウィキペディアによると、最初の状態が何であるかについての知識がないため、前の状態ベクトルで各状態に等しい確率を割り当てる必要があります。しかし、遷移確率行列が何であるかは知っています。その行列の固有値が 1 である固有ベクトルは、HMM の各状態の頻度です (私は思います)。代わりに状態ベクトル?
1 に答える
2
これは本当にモデリングの決定です。あなたの提案は確かに可能です。なぜなら、それは、隠れた状態がまったく観察されないか、または効果がない場合に、観測に大きな範囲の観測を前置することにほぼ対応するためです。これにより、元の状態が平衡に落ち着く時間が得られます分布。
しかし、話者が話し始めたときに始まるスピーチのセグメントや、文の先頭で始まるテキストのセグメントなど、開始が区切られた一連の観測がある場合、その分布が正しいと信じる特別な理由はありません。最初の状態の は平衡分布と同じです: 英語のテキストで最も一般的な文字であることがよく知られているのに対し、「e」が文頭で最も一般的な文字であるかどうかは非常に疑問です.
一緒に処理している非常に短い観測シーケンスが多数ある場合を除き、何を選択するかはあまり重要ではありません。HMM パラメーターの最適化によく使用される EM アルゴリズムまたは Baum-Welch アルゴリズムは、パラメーターをゼロから再推定することに消極的であるため、ほとんどの場合、状態確率の 1 つをゼロに設定したい場合にのみ心配します。
于 2012-07-24T04:53:37.003 に答える