2

Python でカスタマイズされた推定オブジェクトがあります ( mkl_regressor)。このようなオブジェクトの学習パラメータの 1 つは、numpy.arrayfloat です。通常、sklearn estimator オブジェクトはC、SVM のように単一のパラメーターによって調整されます。したがって、randomizedSearchCV検索オブジェクトは、目的のパラメーターの特定の分布 (私の例では ) から値を取得するために、分布または値のリストを取得しscipy.stats.exponます。ディストリビューションのリストを渡そうとしましたが、randomizedSearchCVディストリビューションの配列の要素を実行しないため、成功しませんでした。これは私が試したものです:

from modshogun import *
import Gnuplot, Gnuplot.funcutils
from numpy import *
from sklearn.metrics import r2_score

class mkl_regressor():

    def __init__(self, widths = [0.01, 0.1, 1.0, 10.0, 50.0, 100.0], kernel_weights = [0.01, 0.1, 1.0,], svm_c = 0.01, mkl_c = 1.0, svm_norm = 1, mkl_norm = 1, degree = 2):
        self.svm_c = svm_c
        self.mkl_c = mkl_c
        self.svm_norm = svm_norm
        self.mkl_norm = mkl_norm
        self.degree = degree
        self.widths = widths
        self.kernel_weights = kernel_weights


    def fit(self, X, y, **params):
        for parameter, value in params.items():
            setattr(self, parameter, value)        

        self.feats_train = RealFeatures(X.T)
        labels_train = RegressionLabels(y.reshape((len(y), )))
        self._kernels_  = CombinedKernel()
        for width in self.widths:
            kernel = GaussianKernel()
            kernel.set_width(width)
            kernel.init(self.feats_train,self.feats_train)
            self._kernels_.append_kernel(kernel)
            del kernel

        kernel = PolyKernel(10, self.degree)            
        self._kernels_.append_kernel(kernel)
        del kernel

        self._kernels_.init(self.feats_train, self.feats_train)

        binary_svm_solver = SVRLight()
        self.mkl = MKLRegression(binary_svm_solver)

        self.mkl.set_C(self.svm_c, self.svm_c)
        self.mkl.set_C_mkl(self.mkl_c)
        self.mkl.set_mkl_norm(self.mkl_norm)
        self.mkl.set_mkl_block_norm(self.svm_norm)

        self.mkl.set_kernel(self._kernels_)
        self.mkl.set_labels(labels_train)
        self.mkl.train()
        self.kernel_weights = self._kernels_.get_subkernel_weights()

    def predict(self, X):
        self.feats_test = RealFeatures(X.T)
        self._kernels_.init(self.feats_train, self.feats_test) 
        self.mkl.set_kernel(self._kernels_)
        return self.mkl.apply_regression().get_labels()

    def set_params(self, **params):
        for parameter, value in params.items():
            setattr(self, parameter, value)

        return self

    def get_params(self, deep=False):

        return {param: getattr(self, param) for param in dir(self) if not param.startswith('__') and not callable(getattr(self,param))}    

    def score(self,  X_t, y_t):

        predicted = self.predict(X_t)
        return r2_score(predicted, y_t)    

if __name__ == "__main__":

    from sklearn.grid_search import RandomizedSearchCV as RS
    from scipy.stats import randint as sp_randint
    from scipy.stats import expon

    labels = array([2.0,0.0,2.0,1.0,3.0,2.0])
    labels = labels.reshape((len(labels), 1))
    data = array([[1.0,2.0,3.0],[1.0,2.0,9.0],[1.0,2.0,3.0],[1.0,2.0,0.0],[0.0,2.0,3.0],[1.0,2.0,3.0]])
    labels_t = array([1.,3.,4])
    labels_t = labels_t.reshape((len(labels_t), 1))
    data_t = array([[20.0,30.0,40.0],[10.0,20.0,30.0],[10.0,20.0,40.0]])
    k = 3

    param_grid = [ {'svm_c': expon(scale=100, loc=5),
                'mkl_c': expon(scale=100, loc=5),
                'degree': sp_randint(0, 32),
                #'widths': [array([4.0,6.0,8.9,3.0]), array([4.0,6.0,8.9,3.0,2.0, 3.0, 4.0]), array( [100.0, 200.0, 300.0, 400.0]) 
                'widths': [[expon, expon]] 
              }]

    mkl = mkl_regressor()
    rs = RS(mkl, param_distributions = param_grid[0], n_iter = 10, n_jobs = 24, cv = k)#, scoring="r2", verbose=True)
    rs.fit(data, labels)
    preds = rs.predict(data_t)

    print "R^2: ", rs.score(data_t, labels_t)
    print "Parameters: ", rs.best_params_

'widths'上記のコードは、パラメーターの辞書のリストの要素として numpy 配列を渡すことでうまく機能します。ただし、ディストリビューションのリストを渡そうとすると、randomizedSearchCV オブジェクトが期待どおりに応答しません。

/home/ignacio/distributionalSemanticStabilityThesis/mkl_test.py in fit(self=<__main__.mkl_regressor instance>, X=array([[ 1.,  2.,  3.],
       [ 1.,  2.,  0.],
       [ 0.,  2.,  3.],
       [ 1.,  2.,  3.]]), y=array([[ 2.],
       [ 1.],
       [ 3.],
       [ 2.]]), **params={})
     24         self.feats_train = RealFeatures(X.T)
     25         labels_train = RegressionLabels(y.reshape((len(y), )))
     26         self._kernels_  = CombinedKernel()
     27         for width in self.widths:
     28             kernel = GaussianKernel()
---> 29             kernel.set_width(width)
        kernel.set_width = <built-in method set_width of GaussianKernel object>
        width = <scipy.stats._continuous_distns.expon_gen object>
     30             kernel.init(self.feats_train,self.feats_train)
     31             self._kernels_.append_kernel(kernel)
     32             del kernel
     33 

TypeError: in method 'GaussianKernel_set_width', argument 2 of type 'float64_t'

各分布ジェネレーターを実行するために推定器を強制したくありません。そのような場合、randomizedSearchCV使用される値を制御できないからです。

いくつかの提案?ありがとうございました。

4

2 に答える 2

1

RandomizedSearchCV は、試行するパラメーター値のリスト、またはサンプリング用の rvs メソッドを使用した分布オブジェクトのいずれかを取ることができます。リストを渡すと、サンプリング元のパラメーター値の離散セットを渡したと見なされます。単一パラメーターの分布のリストはサポートされていません。既存のディストリビューションがニーズに合わない場合は、カスタム ディストリビューションを作成してください。

配列を返す分布が必要な場合は、単変量分布のリストの代わりに、ランダム サンプルを返し、そのインスタンスを渡す rvs() メソッドを持つクラスを作成するだけです。

于 2016-07-30T01:44:02.810 に答える