0

私は句読点予測問題を隠しイベント モデルから生じるものとしてモデリングしており、Stolcke の論文Modeling the Prosody of Hidden Events for Improvement Word Recognition で説明されているアルゴリズムに従おうとしています。

ngram モデルを計算した後、彼はイベントの最尤シーケンスを計算するアルゴリズムについて説明します。

P(W,S) に N-gram モデルを使用し、韻律尤度を式 4 のように分解すると、結合モデル P(W,S,F) は隠れマルコフ モデル (HMM) と等価になります。HMM の状態は (単語、イベント) のペアであり、韻律的特徴は観察を形成します。遷移確率は N-gram モデルによって与えられます。放出確率は、以下に説明する韻律モデルによって推定されます。この構成に基づいて、HMM のよく知られた順方向動的計画法アルゴリズムを使用して、すべての可能なイベント シーケンスの合計を効率的に実行できます。

基礎となるモデルがN-gramモデルである場合、状態がN-1個の前の単語をエンコードする必要があるように見えるので、これが状態(単語、イベント)を持つマルコフモデルになる方法を混乱させます次の状態を予測するために必要なすべての情報。何が起きてる?ありがとう!

4

1 に答える 1