2

「教師なし分類」に関する研究を行っています。基本的に私はtrainSetを持っており、教師なしでX個のクラスのデータをクラスタリングしたいと考えています。アイデアは、k-means が行うことと似ています。

まあ言ってみれば

Step1) featureSet は [1057x10] 行列であり、それらを 88 個のクラスターにクラスター化したいと考えています。

Step2) 以前に計算されたクラスを使用して、testData がどのように分類されるかを計算します

質問 - SVM または NN で実行できますか? 他に何か ?-他におすすめはありますか?

4

2 に答える 2

2

世の中には多くのクラスタリング アルゴリズムがあり、Web にはそれらに関する情報とサンプル実装があふれています。良い出発点は、クラスター分析Cluster_analysisに関するウィキペディアのエントリです。

k-means の実装が機能しているので、多くのバリアントの 1 つを試して、より良い結果が得られるかどうかを確認できます (SVM について言及したように、おそらく k-means++)。完全に異なるアプローチが必要な場合は、Kohonen マップ (Self Organizing Feature Maps とも呼ばれます) をご覧ください。それが難しすぎると思われる場合は、単純な階層クラスタリングを実装するのは簡単です (最も近い 2 つのアイテムを見つけ、結合し、すすぎ、繰り返します)。

于 2009-11-19T15:27:54.767 に答える
1

これは、古典的なクラスタリングの問題のように思えます。SVM もニューラル ネットワークも、この問題を直接解決することはできません。たとえば、10 次元データを 2 次元空間に埋め込むなど、次元削減にはどちらのアプローチも使用できますが、データをクラスターに配置することはできません。

k-means 以外にも膨大な数のクラスタリング アルゴリズムがあります。対照的なアプローチが必要な場合は、凝集クラスタリングアルゴリズムを試してください。使用しているコンピューティング環境の種類はわかりませんが、Rクラスタリングに関するこの (非常に) 短いガイド がとても気に入っています。

于 2009-11-19T15:17:57.063 に答える