テスト セット ベクトル x と各トレーニング セット ベクトルの間のカーネル評価の値は、テスト セットの特徴ベクトルとして使用する必要があります。
libsvm readme からの関連行は次のとおりです。
xi の新しいトレーニング インスタンス:
<label> 0:i 1:K(xi,x1) ... L:K(xi,xL)
任意の x:
<label> 0:?の新しいテスト インスタンス 1:K(x,x1) ... L:K(x,xL)
libsvm の readme には、L 個のトレーニング セット ベクトルがある場合 (xi は [1..L] の i を含むトレーニング セット ベクトル) とテスト セット ベクトル x がある場合、x の特徴ベクトルは次のようになるはずです。
<xのラベル> 0:<任意の数値> 1:K(x^{test},x1^{train}), 2:K(x^{test},x2^{train}) ... L:K (x^{test},xL^{train})
ここで、K(u,v) は、ベクトル u および v を引数としてカーネル関数 on の出力を表すために使用されます。
以下に Python コードの例をいくつか示します。
元の特徴ベクトル表現と事前計算された (線形) カーネルの結果はまったく同じではありませんが、これはおそらく最適化アルゴリズムの違いによるものです。
from svmutil import *
import numpy as np
#original example
y, x = svm_read_problem('.../heart_scale')
m = svm_train(y[:200], x[:200], '-c 4')
p_label, p_acc, p_val = svm_predict(y[200:], x[200:], m)
##############
#train the SVM using a precomputed linear kernel
#create dense data
max_key=np.max([np.max(v.keys()) for v in x])
arr=np.zeros( (len(x),max_key) )
for row,vec in enumerate(x):
for k,v in vec.iteritems():
arr[row][k-1]=v
x=arr
#create a linear kernel matrix with the training data
K_train=np.zeros( (200,201) )
K_train[:,1:]=np.dot(x[:200],x[:200].T)
K_train[:,:1]=np.arange(200)[:,np.newaxis]+1
m = svm_train(y[:200], [list(row) for row in K_train], '-c 4 -t 4')
#create a linear kernel matrix for the test data
K_test=np.zeros( (len(x)-200,201) )
K_test[:,1:]=np.dot(x[200:],x[:200].T)
K_test[:,:1]=np.arange(len(x)-200)[:,np.newaxis]+1
p_label, p_acc, p_val = svm_predict(y[200:],[list(row) for row in K_test], m)