10

Pythonコードからサポートベクターマシンを使用できるライブラリがあることは知っていますが、オンラインで教えることができるライブラリを特に探しています(つまり、一度にすべてのデータを提供する必要はありません)。

いずれかがあります?

4

5 に答える 5

8

LibSVMには、SWIGを介して機能するPythonラッパーが含まれています。

ディストリビューションからのsvm-test.pyの例:

#!/usr/bin/env python

from svm import *

# a three-class problem
labels = [0, 1, 1, 2]
samples = [[0, 0], [0, 1], [1, 0], [1, 1]]
problem = svm_problem(labels, samples);
size = len(samples)

kernels = [LINEAR, POLY, RBF]
kname = ['linear','polynomial','rbf']

param = svm_parameter(C = 10,nr_weight = 2,weight_label = [1,0],weight = [10,1])
for k in kernels:
    param.kernel_type = k;
    model = svm_model(problem,param)
    errors = 0
    for i in range(size):
        prediction = model.predict(samples[i])
        probability = model.predict_probability
        if (labels[i] != prediction):
            errors = errors + 1
    print "##########################################"
    print " kernel %s: error rate = %d / %d" % (kname[param.kernel_type], errors, size)
    print "##########################################"

param = svm_parameter(kernel_type = RBF, C=10)
model = svm_model(problem, param)
print "##########################################"
print " Decision values of predicting %s" % (samples[0])
print "##########################################"

print "Numer of Classes:", model.get_nr_class()
d = model.predict_values(samples[0])
for i in model.get_labels():
    for j in model.get_labels():
        if j>i:
            print "{%d, %d} = %9.5f" % (i, j, d[i,j])

param = svm_parameter(kernel_type = RBF, C=10, probability = 1)
model = svm_model(problem, param)
pred_label, pred_probability = model.predict_probability(samples[1])
print "##########################################"
print " Probability estimate of predicting %s" % (samples[1])
print "##########################################"
print "predicted class: %d" % (pred_label)
for i in model.get_labels():
    print "prob(label=%d) = %f" % (i, pred_probability[i])

print "##########################################"
print " Precomputed kernels"
print "##########################################"
samples = [[1, 0, 0, 0, 0], [2, 0, 1, 0, 1], [3, 0, 0, 1, 1], [4, 0, 1, 1, 2]]
problem = svm_problem(labels, samples);
param = svm_parameter(kernel_type=PRECOMPUTED,C = 10,nr_weight = 2,weight_label = [1,0],weight = [10,1])
model = svm_model(problem, param)
pred_label = model.predict(samples[0])   
于 2009-11-23T16:09:44.707 に答える
4

聞いたことがない。しかし、あなたは本当にオンライン学習が必要ですか?私はかなり長い間SVMを使用していますが、オンライン学習を使用しなければならないという問題に遭遇したことはありません。通常、トレーニング例の変更数(おそらく100または1000)にしきい値を設定してから、すべてをバッチ再トレーニングします。

問題が大規模であり、絶対にオンライン学習を使用する必要がある場合は、vowpalwabbitを確認することをお勧めします。

コメントの後、以下で再編集:

Olivier Griselは、 LaSVMの周りにctypesラッパーを使用することを提案しました。私は以前にLaSVMについて知らなかったし、それはかなりクールに見えるので、私は自分の問題でそれを試してみることに興味を持っています:)。

Python-VMのみ(組み込みデバイス、ロボット)の使用に制限されている場合は、SVMに近いパフォーマンスを発揮する投票済み/平均化パーセプトロンを使用することをお勧めしますが、デフォルトでは実装が簡単で「オンライン」です。

ElefantにオンラインSVMコードがあることを確認しました。

于 2009-11-23T16:17:21.367 に答える
1

そこにはPythonバインディングはありませんが、 http://leon.bottou.org/projects/sgdで説明されているアルゴリズムはオンラインでトレーニングされており、たとえばnumpyを使用して簡単に再実装できます。

于 2011-01-06T13:57:47.873 に答える
1

Pegasosは、非常にうまく機能するオンラインSVMアルゴリズムです。また、特定のPythonバインディングがなくても、実装はかなり簡単です。著者のWebサイトには、適応可能または埋め込み可能なC実装があります。

于 2012-05-18T02:05:53.260 に答える
0

なぜあなたはそれをオンラインで訓練したいのですか?トレーニングインスタンスを追加するには、通常、SVMに関連する二次計画問題を解決する必要があります。

これを処理する方法は、バッチモードでSVMをトレーニングすることです。新しいデータが利用可能になったら、これらのデータポイントが超平面の[-1、+1]マージンにあるかどうかを確認します。その場合は、すべての古いサポートベクターとマージンにある新しいトレーニングデータを使用してSVMを再トレーニングします。

もちろん、後でサポートベクターとなるいくつかのポイントを破棄できるため、すべてのデータのバッチトレーニングと比較して結果がわずかに異なる場合があります。繰り返しになりますが、なぜSVMのオンライントレーニングを実行したいのですか?

于 2009-11-29T20:45:17.117 に答える