sklearn を使用して、28*28 = 784 ディム データでカーネル PCA を実行しようとしていました。最初に、PCA を使用して次元を減らし、k で分散の 95% を説明できる k 次元に減らすことにしました。PCA は私に k = 174 を与えました。後で、次数 3 の多項式カーネルでカーネル PCA を試し、同様に、説明分散アプローチを使用して k = 1993 を得ました。1993 > 784 以来、カーネル PCA は実際に次元を増やしました。目的。
また、トレーニングに 5000 個のデータを使用したところ、カーネル PCA によって 5000 個の固有ベクトルが得られ、そこから k = 1993 を選択しました。カーネル PCA によって 5000 個の固有ベクトルが得られたのはなぜですか? カーネル PCA が PCA と比較して次元を増やしたのはなぜですか?