線形判別分析を 2 クラスの問題に適用しようとしています。私が理解している限り、LDA は両方のクラスが同じ共分散行列を持っていると仮定してから、異なる手段でガウス分布として尤度をモデル化します。
私が試した別の分類器は、ナイーブ ベイジアンです。予測変数間の相関は無視されます。
データセットに PCA を適用するとどうなるかわかりません。まさにその定義により、PCA アルゴリズムは、共分散行列が対角になるようにデータを回転させます。ローテーションで失われるものは何もありませんが、共分散行列が対角になっているため、素朴なベイジアンは LDA と同じか、それよりも優れているべきではないでしょうか? それでも、私のデータでは、単純ベイズは、PCA の有無にかかわらず、LDA よりも優れています。
実際、すべての主成分を使用する限り、データはまったく同じであり、結果が実際にそのままであることがわかります。それでも共分散行列は対角線です...脳のメルトダウン
誰かが私にこれを説明できますか?私の質問を十分に明確に表現したことを願っています。ありがとうございました!