一般的には、番号が大きいほど大きいことが知られています。特徴ベクトルを構成する特徴の数が多いほど、分類器をトレーニングするためにより多くのサンプルが必要になります。私の場合、特徴ベクトルを構成する約256の特徴を持つ2クラスの問題で、バックプロパゲーション多層パーセプトロンを使用しています。
今、私のサンプルサイズは無限ではありません。約2000の陽性サンプルと2000の陰性サンプル。
いくつかの次元削減手順とそのすべてを実行する前に、noとの間にそのような関係があるかどうかを調べたいと思います。サンプルの数といいえ。特徴ベクトルの次元の。