1

これが論文です。テキストといくつかのノイズまたは非テキストオブジェクトを含むバイナリイメージの遠近法を推定することについてです。

PDFドキュメント

アルゴリズムは隠れマルコフモデルを使用します。実際には2つの条件T-テキストB-背景(つまりノイズ)

アルゴリズム自体を理解するのは難しいです。問題は、隠れマルコフモデルについて読んだことがあり、それが既知でなければならない確率を使用していることを知っているということです。しかし、このアルゴリズムでは、HMMを使用している場合、どのようにしてそれらの確率(S1から別の状態(たとえばS2)に状態を変更する確率)を取得するのか理解できません。

その論文でもそこでの訓練については何も見つかりませんでした。ですから、誰かがそれを理解しているなら、教えてください。また、状態変化の確率を知らなくてもHMMを使用することは可能ですか?

編集:HMMパラメーター(確率)を知らなくても、何らかの推定を使用している可能性があります

4

1 に答える 1

2

おそらく、これは少し学術的すぎて、プログラミングよりも応用数学に関連していますか?

とにかく:HMMは、すでに分類されたデータのデータベースを使用して、従来からトレーニングされています(つまり、モデルのパラメーターの値、この場合は確率を学習します)。バウムウェルチアルゴリズムを参照してください。この2つのフェーズの分割:最初の学習(またはトレーニング)(分類されたラベルの付いたデータを使用)、後の分類(または実際の作業)(未分類のデータを使用)は多くのアルゴリズムの典型であり、教師あり分類と呼ばれます。

一方、「既知の」(分類された)データがない場合もあるため、教師なし分類に頼る必要があります。教師なし分類では、モデルの学習と分類を同時に行います。これははるかに制限されており、通常、モデルの多くの簡略化とパラメーターの削減を行うことを意味します(そのため、学習することがそれほど多くありません)。一見すると、これはその記事で採用された道のようです。彼らは完全に一般的なHMMを考慮していませんが、非常に制限されたものであり、モデルに適したものを見つけようとしています。しかし、繰り返しになりますが、私はそれを真剣に読んでいません。

于 2010-04-23T20:26:29.773 に答える