これは非常に基本的な質問のように思えますが、どこにも答えが見つからないようです。私は一般的に SVM と ML に不慣れで、いくつかの簡単な演習を試みていますが、結果が一致していないようです。私は R で e1071 を使用しており、James、Witten、Hastie、および Tibshiraniによる An Introduction to Statistical Learningを使用しています。
私の質問: predict を使用すると、分類エラーがないように見えるのに、tune 関数の結果がゼロ以外のエラー率を示しているのはなぜですか? 私のコード(私は3つのクラスを見ています):
set.seed(4)
dat <- data.frame(pop = rnorm(900, c(0,3,6), 1), strat = factor(rep(c(0,1,2), times=300)))
ind <- sample(1:900)
train <- dat[ind[1:600],]
test <- dat[ind[601:900],]
tune1 <- tune(svm, train.x=train[,1], train.y=train[,2], kernel="radial", ranges=list(cost=10^(-1:2), gamma=c(.5,1,2)))
svm.tuned <- svm(train[,2]~., data=train, kernel = "radial", cost=10, gamma=1) # I just entered the optimal cost and gamma values returned by tune
test.pred <- predict(svm.tuned, newdata=data.frame(pop=test[,1],strat=test[,2]))
したがって、test.pred を見ると、すべての値が真のクラス ラベルと一致していることがわかります。しかし、モデルを調整したところ、約 0.06 のエラー率が得られました。いずれにせよ、テスト エラー率 0 は、分離不可能なデータに対してばかげているように見えます (これが分離可能でないことについて間違っている場合を除きます)。明確化は非常に役立ちます。どうもありがとう。