XGBoosts 分類子を使用してバイナリ データを分類しようとしています。最も単純なことを行い、デフォルトを使用する場合(次のように)
clf = xgb.XGBClassifier()
metLearn=CalibratedClassifierCV(clf, method='isotonic', cv=2)
metLearn.fit(train, trainTarget)
testPredictions = metLearn.predict(test)
かなり良い分類結果が得られます。
私の次のステップは、パラメータを調整することでした。パラメータガイドから推測... https://github.com/dmlc/xgboost/blob/master/doc/parameter.md デフォルトから始めてそこから作業したかった...
# setup parameters for xgboost
param = {}
param['booster'] = 'gbtree'
param['objective'] = 'binary:logistic'
param["eval_metric"] = "error"
param['eta'] = 0.3
param['gamma'] = 0
param['max_depth'] = 6
param['min_child_weight']=1
param['max_delta_step'] = 0
param['subsample']= 1
param['colsample_bytree']=1
param['silent'] = 1
param['seed'] = 0
param['base_score'] = 0.5
clf = xgb.XGBClassifier(params)
metLearn=CalibratedClassifierCV(clf, method='isotonic', cv=2)
metLearn.fit(train, trainTarget)
testPredictions = metLearn.predict(test)
その結果、すべてが条件の 1 つであり、他の条件ではないと予測されます。
不思議なことに私が設定した場合
params={}
パラメータを入力しないのと同じデフォルトが得られると思っていたのですが、同じことが起こりました
では、XGBclassifier のデフォルトが何であるかを知っている人はいますか? チューニングを開始できるようにするには?