10

私はlibsvmを使用しており、 1対allのマルチクラスの分類を実装する必要があります。

どうすればいいですか?バージョン2011はこれを使用しますか
libsvm


私の質問はあまり明確ではないと思います。libsvmが自動的に1つとすべてを使用しない場合は、クラスごとに1つのsvmを使用します。それ以外の場合は、svmtrain関数でこのパラメーターを定義するにはどうすればよいですか。libsvmのREADMEを読んだことがあります。

4

1 に答える 1

35

公式のlibsvmドキュメント(セクション7)によると:

LIBSVMは、マルチクラス分類のための「1対1」アプローチを実装しています。kがクラスの数である場合、k(k-1)/2 分類器が作成され、それぞれが2つのクラスからデータをトレーニングします。

分類では、投票戦略を使用します。各2項分類は、すべてのデータポイントxに投票できる投票と見なされます。最終的に、ポイントは最大投票数のクラスに指定されます。

1対すべてのアプローチでは、クラスの数と同じ数のバイナリ分類器を構築し、それぞれが1つのクラスを他のクラスから分離するようにトレーニングされています。新しいインスタンスを予測するために、決定関数の値が最大の分類器を選択します。


前に述べたように、アイデアは、k1つのクラスを他のクラスから分離するSVMモデルをそれぞれトレーニングすることです。これらの二項分類器を取得したら、確率出力(-b 1オプション)を使用して、確率が最も高いクラスを選択することにより、新しいインスタンスを予測します。

次の例を考えてみましょう。

%# Fisher Iris dataset
load fisheriris
[~,~,labels] = unique(species);   %# labels: 1/2/3
data = zscore(meas);              %# scale features
numInst = size(data,1);
numLabels = max(labels);

%# split training/testing
idx = randperm(numInst);
numTrain = 100; numTest = numInst - numTrain;
trainData = data(idx(1:numTrain),:);  testData = data(idx(numTrain+1:end),:);
trainLabel = labels(idx(1:numTrain)); testLabel = labels(idx(numTrain+1:end));

マルチクラスSVMのすべてに対して1つのアプローチの実装は次のとおりです。

%# train one-against-all models
model = cell(numLabels,1);
for k=1:numLabels
    model{k} = svmtrain(double(trainLabel==k), trainData, '-c 1 -g 0.2 -b 1');
end

%# get probability estimates of test instances using each model
prob = zeros(numTest,numLabels);
for k=1:numLabels
    [~,~,p] = svmpredict(double(testLabel==k), testData, model{k}, '-b 1');
    prob(:,k) = p(:,model{k}.Label==1);    %# probability of class==k
end

%# predict the class with the highest probability
[~,pred] = max(prob,[],2);
acc = sum(pred == testLabel) ./ numel(testLabel)    %# accuracy
C = confusionmat(testLabel, pred)                   %# confusion matrix
于 2012-01-29T00:17:37.037 に答える