11

マルチクラス SVM に関しては、LIBSVM では 1 対 1 の分類しかできないことを知っています。ただし、1対1の分類を実行するために少し調整したいと思います。以下で一対一を実行しようとしました。これは正しいアプローチですか?

コード:

TrainLabel;TrainVec;TestVec;TestLaBel;
u=unique(TrainLabel);
N=length(u);
if(N>2)
    itr=1;
    classes=0;
    while((classes~=1)&&(itr<=length(u)))
        c1=(TrainLabel==u(itr));
        newClass=c1;
        model = svmtrain(TrainLabel, TrainVec, '-c 1 -g 0.00154'); 
        [predict_label, accuracy, dec_values] = svmpredict(TestLabel, TestVec, model);
        itr=itr+1;
    end
itr=itr-1;
end

私はいくつかの間違いを犯したかもしれません。フィードバックをお聞きしたいと思います。ありがとう。

第二部: グレープオットが言ったように: 最終的な答えを出すには、Sum-pooling (または単純化されたソリューションとしての投票) を行う必要があります。どうすればいいのかわかりません。助けが必要です。Pythonファイルを見ましたが、まだよくわかりません。助けが必要です。

4

3 に答える 3

10
%# Fisher Iris dataset
load fisheriris
[~,~,labels] = unique(species);   %# labels: 1/2/3
data = zscore(meas);              %# scale features
numInst = size(data,1);
numLabels = max(labels);

%# split training/testing
idx = randperm(numInst);
numTrain = 100; numTest = numInst - numTrain;
trainData = data(idx(1:numTrain),:);  testData = data(idx(numTrain+1:end),:);
trainLabel = labels(idx(1:numTrain)); testLabel = labels(idx(numTrain+1:end));
%# train one-against-all models
model = cell(numLabels,1);
for k=1:numLabels
    model{k} = svmtrain(double(trainLabel==k), trainData, '-c 1 -g 0.2 -b 1');
end

%# get probability estimates of test instances using each model
prob = zeros(numTest,numLabels);
for k=1:numLabels
    [~,~,p] = svmpredict(double(testLabel==k), testData, model{k}, '-b 1');
    prob(:,k) = p(:,model{k}.Label==1);    %# probability of class==k
end

%# predict the class with the highest probability
[~,pred] = max(prob,[],2);
acc = sum(pred == testLabel) ./ numel(testLabel)    %# accuracy
C = confusionmat(testLabel, pred)                   %# confusion matrix
于 2012-02-04T07:33:05.707 に答える
4

コードから、最初にラベルを「一部のクラス」と「このクラスではない」に変換してから、LibSVM を呼び出してトレーニングとテストを実行しようとしていることがわかります。いくつかの質問と提案:

  1. オリジナルTrainingLabelをトレーニングに使用している理由を教えてください。私の意見では、そうすべきmodel = svmtrain(newClass, TrainVec, '-c 1 -g 0.00154');ですか?
  2. 修正されたトレーニング メカニズムでは、サム プーリングを使用して最終的なラベルを決定するなど、予測部分も微調整する必要があります。-bLibSVM でスイッチを使用して確率出力を有効にすると、精度も向上します。
于 2012-01-21T13:48:18.847 に答える
1

確率推定の代わりに、次のように決定値を使用することもできます

[~,~,d] = svmpredict(double(testLabel==k), testData, model{k});
prob(:,k) = d * (2 * model{i}.Label(1) - 1);

同じ目的を達成するために。

于 2012-08-24T03:33:27.340 に答える