1

Radial Basis Function Network (RBF Network) では、隠れ層のすべてのプロトタイプ (RBF 関数の中心ベクトル) が選択されます。この手順は、いくつかの方法で実行できます。

  • センターは、いくつかの例のセットからランダムにサンプリングできます。
  • または、k-mean クラスタリングを使用して決定できます。

プロトタイプを賢く選択するためのアプローチの 1 つは、トレーニング セットに対して k-mean クラスタリングを実行し、クラスターの中心をプロトタイプとして使用することです。k-mean クラスタリングがその単純さ (高速) によって特徴付けられることはわかっていますが、あまり正確ではありません。

そのため、k-mean クラスタリングよりも正確な他のアプローチを知りたいのですが?

どんな助けでも大歓迎です。

4

3 に答える 3

2

いくつかの k-means バリエーションが存在します: k-medians、Medoids 周辺の分割、ファジー C-Means クラスタリング、期待値最大化アルゴリズムでトレーニングされたガウス混合モデル、k-means++ など。

データセットにいくつかの「外れ値」(他の値とは大きく異なる値を持つノイズ) が含まれている場合に、より正確にするために PAM (Medoid 周辺のパーティショニング) を使用し、中心がこのデータの影響を受けないようにします。PAM の場合、センターは Medoid と呼ばれます。

于 2014-03-06T12:19:14.267 に答える
1

K-Means に関しては、サンプルに対して何回か (たとえば 100 回) 実行してから、最小の K-Means 基準出力 (平方和各エンティティとそれぞれの重心との間のユークリッド距離)。

いくつかの初期化アルゴリズムを使用することもできます (インテリジェントな K-Means が思い浮かびますが、K-Means++ をググることもできます)。K-Means の非常に優れたレビューは、AK Jain による Data clustering: 50 years beyond K-means という論文で見つけることができます。

ウォード法などの階層法も確認できます。

于 2014-03-07T13:13:21.060 に答える
1

クラスター分析には、期待値最大化アルゴリズムと呼ばれる、より統計的なアプローチがあります。統計分析を使用してクラスターを決定します。これは、クラスターの重心とトレーニング データに関するデータが大量にある場合に、おそらくより適切なアプローチです。

このリンクには、実際に使用されている他のいくつかのクラスタリング アルゴリズムもリストされています。明らかに、持っているデータの量やデータの種類に応じて、他のものよりも優れているものがあります。

Udacity には人工知能入門という素晴らしいコースがあり、1 つのレッスンは教師なし学習に専念しており、Thrun 教授はいくつかのクラスタリング アルゴリズムを非常に詳細に説明しています。そのコースを強くお勧めします!

これが役に立てば幸いです。

于 2014-03-06T12:13:15.573 に答える