1

一般的には、番号が大きいほど大きいことが知られています。特徴ベクトルを構成する特徴の数が多いほど、分類器をトレーニングするためにより多くのサンプルが必要になります。私の場合、特徴ベクトルを構成する約256の特徴を持つ2クラスの問題で、バックプロパゲーション多層パーセプトロンを使用しています。

今、私のサンプルサイズは無限ではありません。約2000の陽性サンプルと2000の陰性サンプル。

いくつかの次元削減手順とそのすべてを実行する前に、noとの間にそのような関係があるかどうかを調べたいと思います。サンプルの数といいえ。特徴ベクトルの次元の。

4

1 に答える 1

2

必要なトレーニング データの量は、モデルの複雑さと使用するトレーニング手順にも依存するため、この 2 つの間に実際の直接的な関係はありません。

実用的な観点から、最初に単純な識別分類器を実行して、すべての機能でどのように機能するかを確認し、次に何らかの機能選択を適用することをお勧めします。

于 2012-10-11T09:35:18.583 に答える