1

sklearn で svm 分類子をトレーニングする必要があります。特徴ベクトルの次元は数十万になり、そのような特徴ベクトルは数万あります。ただし、各次元は 0、1、または -1 にすることができます。各特徴ベクトルで非ゼロは約 100 のみです。特徴ベクトルに関する情報を分類子に与える効率的な方法はありますか?

4

1 に答える 1

2

sklearn で svm 分類子をトレーニングする必要があります。

つまりsklearn.svm.SVC?高次元のスパース データと多くのサンプルの場合LinearSVC、 、LogisticRegressionPassiveAggressiveClassifierまたはSGDClassifierは、同等の予測精度を得るためにはるかに高速にトレーニングできます。

特徴ベクトルの次元は数十万にもなり、そのような特徴ベクトルは何万もあります。ただし、各次元は 0、1、または -1 にすることができます。各特徴ベクトルで非ゼロは約 100 のみです。特徴ベクトルに関する情報を分類子に与える効率的な方法はありますか?

scipy.sparseメモリにゼロを格納しない行列としてデータを読み込む方法を見つけてください。特徴抽出に関するドキュメントをご覧ください。元のデータの表現の性質に応じて、それを行うためのツールが提供されます。

于 2013-03-01T08:17:34.093 に答える