0

NLTK を使用して単純ベイズ分類器をトレーニングしました。

各ラベルに使用している事前確率を見つける方法はありますか (私は 2 つのラベルしか使用していません)。肯定的なツイートと否定的なツイートを同数使用したため、各ラベルの事前確率は 0.5 になるはずですが、特徴のないテキストを分類するときは常に、prob(positive)=0.8076410666128 と prob(negative)=0.192358933872 が得られます。

これはテキストに関係なく。モデルが 0 の特徴を持つラインに対してこれらの確率を与える理由について混乱しており、各ラベルの事前確率と関係があると考えています。

4

0 に答える 0