教師なし次元削減アルゴリズムは、行列 NxC1 を入力として取ります。ここで、N は入力ベクトルの数、C1 は各ベクトルのコンポーネントの数 (ベクトルの次元) です。その結果、新しい行列 NxC2 (C2 < C1) が返されます。ここで、各ベクトルのコンポーネント数は少なくなります。
ファジー クラスタリング アルゴリズムは、行列 N*C1 を入力として受け取ります。ここで、ここでも、N は入力ベクトルの数であり、C1 は各ベクトルのコンポーネントの数です。その結果、新しい行列 NxC2 (通常、C2 は C1 よりも小さい) が返されます。ここで、各ベクトルの各コンポーネントは、ベクトルが対応するクラスターに属する度合いを示しています。
両方のクラスのアルゴリズムの入力と出力の構造は同じで、結果の解釈のみが異なることに気付きました。さらに、scikit-learn にはファジー クラスタリングの実装がないため、次の質問があります。
ファジークラスタリングを実行するために次元削減アルゴリズムを使用することは理にかなっていますか? たとえば、テキスト データから抽出された TF-IDF ベクトルから構築されたデータセットにFeatureAgglomerationまたはTruncatedSVDを適用し、その結果をファジー クラスタリングとして解釈するのはナンセンスですか?