5

を使用しkernlabて、次のようなコードでモデルをトレーニングしました。

my.model <- ksvm(result ~ f1+f2+f3, data=gold, kernel="vanilladot")

これは線形モデルであるため、完全なSVM機構を使用するのではなく、実行時に特徴値の単純な加重和としてスコアを計算することをお勧めします。モデルを次のようなものに変換するにはどうすればよいですか(ここではいくつかの構成されたウェイト):

> c(.bias=-2.7, f1=0.35, f2=-0.24, f3=2.31)
.bias    f1    f2    f3 
-2.70  0.35 -0.24  2.31 

バイアス項はどこに.biasあり、残りは特徴の重みですか?

編集:

これがいくつかのサンプルデータです。

gold <- structure(list(result = c(-1, -1, -1, -1, -1, -1, -1, -1, -1, 
-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, 1, 1, 1, 1, 1, 1, 
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1), f1 = c(0, 0, 0, 0, 
0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 0, 0, 
1, 0, 0, 0, 0, 0, 0, 1, 0, 1, 1, 0, 0, 0, 1), f2 = c(13.4138113499447, 
13.2216999857095, 12.964145772169, 13.1975227965938, 13.1031520152764, 
13.59351759447, 13.1031520152764, 13.2700658838026, 12.964145772169, 
13.1975227965938, 12.964145772169, 13.59351759447, 13.59351759447, 
13.0897162110721, 13.364151238365, 12.9483051847806, 12.964145772169, 
12.964145772169, 12.964145772169, 12.9483051847806, 13.0937231331592, 
13.5362700880482, 13.3654209223623, 13.4356400945176, 13.59351759447, 
13.2659406408724, 13.4228886221088, 13.5103065354936, 13.5642812689161, 
13.3224757352068, 13.1779418771704, 13.5601730479315, 13.5457299603578, 
13.3729010596517, 13.4823595997866, 13.0965264603473, 13.2710281801434, 
13.4489887206797, 13.5132372154748, 13.5196188787197), f3 = c(0, 
1, 0, 0, 0, 1, 0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 
0, 0, 1, 0, 1, 1, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0, 0)), .Names = c("result", 
"f1", "f2", "f3"), class = "data.frame", row.names = c(NA, 40L
))
4

2 に答える 2

7

バイアスを取得するには、すべてゼロの特徴ベクトルを使用してモデルを評価するだけです。最初の特徴の係数を取得するには、最初の位置に「1」があり、他のすべての場所がゼロである特徴ベクトルを使用してモデルを評価します。次に、既にわかっているバイアスを減算します。R構文がわからないのではないかと思いますが、概念的には次のようなものが必要です。

bias = my.model.eval([0, 0, 0])
f1 = my.model.eval([1, 0, 0]) - bias
f2 = my.model.eval([0, 1, 0]) - bias
f3 = my.model.eval([0, 0, 1]) - bias

正しく実行したことをテストするには、次のような方法を試すことができます。

assert(bias + f1 + f2 + f3 == my.model.eval([1, 1, 1]))
于 2009-12-14T05:20:51.923 に答える
5

私が間違っていなければ、SVMのWベクトルを抽出する方法を尋ねていると思います。ここでWは次のように定義されます。

W = \sum_i y_i * \alpha_i * example_i

うーん:ここで方程式を書くための最良の方法はわかりませんが、これは重み*サポートベクターの合計です。Wを計算した後、必要な機能の「重み」を抽出できます。

これが正しいと仮定すると、次のようになります。

  1. サポートベクターであるデータのインデックスを取得します
  2. 重みを取得する(アルファ)
  3. 計算するW

kernlabは、サポートベクターインデックスとその値をリストに格納します(したがって、マルチクラスの問題でも機能します)。とにかく、リスト操作の使用は、実際のデータを取得することだけです(リストの長さがによって返されることがわかります) 2クラスの問題がある場合は、1にalphaなりalphaindexます。これは、私が想定していることです)。

my.model <- ksvm(result ~ f1+f2+f3, data=gold, kernel="vanilladot", type="C-svc")
alpha.idxs <- alphaindex(my.model)[[1]]  # Indices of SVs in original data
alphas <- alpha(my.model)[[1]]
y.sv <- gold$result[alpha.idxs]
# for unscaled data
sv.matrix <- as.matrix(gold[alpha.idxs, c('f1', 'f2', 'f3')])
weight.vector <- (y.sv * alphas) %*% sv.matrix
bias <- b(my.model)

kernlab実際には、データを実行する前に、最初にデータをスケーリングします。このように(スケーリングされた)重みを取得できます(ここで、バイアスは0(?)である必要があります)

weight.vector <- (y.sv * alphas) %*% xmatrix(my.model)[[1]]

私があなたの質問を理解したなら、これはあなたが求めているものをあなたに与えるはずです。

于 2009-12-14T14:21:33.933 に答える