背景/質問
Scikit-learn を使用して SVM を作成しようとしています。私はトレーニング セットを持っています (これはhttps://dl.dropboxusercontent.com/u/9876125/training_patients.txtへのリンクです)。これを読み込んで SVM のトレーニングに使用します。トレーニング セットの長さは 3600 行です。3600 個のタプルをすべて使用すると、SVM はトレーニングを終了しません。ただし、最初の 3594 個のタプルのみを使用すると、1 分以内にトレーニングが終了します。さまざまなサイズのトレーニング セットを使用してみましたが、同じことが引き続き発生します... SVM を使用するタプルの数に応じて、非常に迅速にトレーニングするか、完了しません。これにより、SVM はデータに基づいて回答に収束するのに苦労しているという結論に至りました。
これが収束の問題であるという私の仮定は正しいですか? もしそうなら、解決策は何ですか?そうでない場合、他にどのような問題が考えられますか?
コード
import pylab as pl # @UnresolvedImport
from sklearn.datasets import load_svmlight_file
print(doc)
import numpy as np
from sklearn import svm, datasets
print "loading training setn"
X_train, y_train = load_svmlight_file("training_patients.txt")
h = .02 # step size in the mesh
C = 1.0 # SVM regularization parameter
print "creating svmn"
poly_svc = svm.SVC(kernel='poly', cache_size=600, degree=40, C=C).fit(X_train, y_train)
print "all done"