Pythonコードからサポートベクターマシンを使用できるライブラリがあることは知っていますが、オンラインで教えることができるライブラリを特に探しています(つまり、一度にすべてのデータを提供する必要はありません)。
いずれかがあります?
Pythonコードからサポートベクターマシンを使用できるライブラリがあることは知っていますが、オンラインで教えることができるライブラリを特に探しています(つまり、一度にすべてのデータを提供する必要はありません)。
いずれかがあります?
LibSVMには、SWIGを介して機能するPythonラッパーが含まれています。
ディストリビューションからのsvm-test.pyの例:
#!/usr/bin/env python
from svm import *
# a three-class problem
labels = [0, 1, 1, 2]
samples = [[0, 0], [0, 1], [1, 0], [1, 1]]
problem = svm_problem(labels, samples);
size = len(samples)
kernels = [LINEAR, POLY, RBF]
kname = ['linear','polynomial','rbf']
param = svm_parameter(C = 10,nr_weight = 2,weight_label = [1,0],weight = [10,1])
for k in kernels:
param.kernel_type = k;
model = svm_model(problem,param)
errors = 0
for i in range(size):
prediction = model.predict(samples[i])
probability = model.predict_probability
if (labels[i] != prediction):
errors = errors + 1
print "##########################################"
print " kernel %s: error rate = %d / %d" % (kname[param.kernel_type], errors, size)
print "##########################################"
param = svm_parameter(kernel_type = RBF, C=10)
model = svm_model(problem, param)
print "##########################################"
print " Decision values of predicting %s" % (samples[0])
print "##########################################"
print "Numer of Classes:", model.get_nr_class()
d = model.predict_values(samples[0])
for i in model.get_labels():
for j in model.get_labels():
if j>i:
print "{%d, %d} = %9.5f" % (i, j, d[i,j])
param = svm_parameter(kernel_type = RBF, C=10, probability = 1)
model = svm_model(problem, param)
pred_label, pred_probability = model.predict_probability(samples[1])
print "##########################################"
print " Probability estimate of predicting %s" % (samples[1])
print "##########################################"
print "predicted class: %d" % (pred_label)
for i in model.get_labels():
print "prob(label=%d) = %f" % (i, pred_probability[i])
print "##########################################"
print " Precomputed kernels"
print "##########################################"
samples = [[1, 0, 0, 0, 0], [2, 0, 1, 0, 1], [3, 0, 0, 1, 1], [4, 0, 1, 1, 2]]
problem = svm_problem(labels, samples);
param = svm_parameter(kernel_type=PRECOMPUTED,C = 10,nr_weight = 2,weight_label = [1,0],weight = [10,1])
model = svm_model(problem, param)
pred_label = model.predict(samples[0])
聞いたことがない。しかし、あなたは本当にオンライン学習が必要ですか?私はかなり長い間SVMを使用していますが、オンライン学習を使用しなければならないという問題に遭遇したことはありません。通常、トレーニング例の変更数(おそらく100または1000)にしきい値を設定してから、すべてをバッチ再トレーニングします。
問題が大規模であり、絶対にオンライン学習を使用する必要がある場合は、vowpalwabbitを確認することをお勧めします。
コメントの後、以下で再編集:
Olivier Griselは、 LaSVMの周りにctypesラッパーを使用することを提案しました。私は以前にLaSVMについて知らなかったし、それはかなりクールに見えるので、私は自分の問題でそれを試してみることに興味を持っています:)。
Python-VMのみ(組み込みデバイス、ロボット)の使用に制限されている場合は、SVMに近いパフォーマンスを発揮する投票済み/平均化パーセプトロンを使用することをお勧めしますが、デフォルトでは実装が簡単で「オンライン」です。
ElefantにオンラインSVMコードがあることを確認しました。
そこにはPythonバインディングはありませんが、 http://leon.bottou.org/projects/sgdで説明されているアルゴリズムはオンラインでトレーニングされており、たとえばnumpyを使用して簡単に再実装できます。
なぜあなたはそれをオンラインで訓練したいのですか?トレーニングインスタンスを追加するには、通常、SVMに関連する二次計画問題を解決する必要があります。
これを処理する方法は、バッチモードでSVMをトレーニングすることです。新しいデータが利用可能になったら、これらのデータポイントが超平面の[-1、+1]マージンにあるかどうかを確認します。その場合は、すべての古いサポートベクターとマージンにある新しいトレーニングデータを使用してSVMを再トレーニングします。
もちろん、後でサポートベクターとなるいくつかのポイントを破棄できるため、すべてのデータのバッチトレーニングと比較して結果がわずかに異なる場合があります。繰り返しになりますが、なぜSVMのオンライントレーニングを実行したいのですか?