2

オブジェクトごとに 84 個の特徴を持つ約 300 個のオブジェクトで構成されるデータセットがあります。オブジェクトはすでに 2 つのクラスに分けられています。PCA を使用すると、次元を約 24 に減らすことができます。元のデータの分散の約 96% をカバーする 3 つの主成分を使用しています。私が抱えている問題は、PCAがクラスを互いに分離する機能を気にしないことです。これら2つのクラスの識別関数を見つけるために、特徴空間を削減するためのPCAとLDAを組み合わせる方法はありますか? または、LDA を使用して、3 次元空間で 2 つのクラスを分離する特徴を最良の方法で見つける方法はありますか?

この論文を見つけたのでちょっといらいらしていますが、よくわかりません。http://faculty.ist.psu.edu/jessieli/Publications/ecmlpkdd11_qgu.pdf

前もって感謝します。

4

1 に答える 1

1

主成分回帰(PCR、説明する変数がスカラーの場合に必要なもの) と、MATLAB の統計ツールボックスを使用した部分最小二乗回帰 (PLSR)に関するこの記事をご覧ください。基本的に PCR では、従属変数を最もよく説明する主成分を選択します。それらは、分散が最大のものではない可能性があります。

于 2013-11-06T02:28:55.470 に答える