Catboost を使用して分類を行うための最適なパラメーターを見つけたいです。トレーニングデータとテストデータがあります。アルゴリズムを 500 回反復して実行し、テスト データを予測したいと考えています。次に、これを 600 回繰り返し、次に 700 回繰り返します。イテレーション 0 からやり直したくありません。それで、Catboostアルゴリズムでこれを行う方法はありますか?
どんな助けでも大歓迎です!
Catboost を使用して分類を行うための最適なパラメーターを見つけたいです。トレーニングデータとテストデータがあります。アルゴリズムを 500 回反復して実行し、テスト データを予測したいと考えています。次に、これを 600 回繰り返し、次に 700 回繰り返します。イテレーション 0 からやり直したくありません。それで、Catboostアルゴリズムでこれを行う方法はありますか?
どんな助けでも大歓迎です!
まず、XGB を使用して R で予測モデルを作成します。CatBoost を使用して回帰モデルを構築し、結果を改善したいと考えています。
超伝導体データセットをトレーニング データセットとテスト データセットに変換
dataset_catboost20<-read.csv("train.csv")
dataset_catboost20 rows<-nrow(dataset_catboost20) f<-0.65 upper_bound_catboost20<- floor(f*rows) permuted_dataset_catboost20<- dataset_catboost20[sample(rows),] train_dataset_catboost20<-permuted_dataset_catboost20[1:upper_bound_catboost20,] train_dataset_catboost20
サポートされていないデータ型です。data.frame が必要です。取得したのは dgCMatrix です
方式
train_dataset_catboost2020
y_traincatboost20=train_dataset_catboost20$critical_temp
catboost_trcontrol20<-trainControl(method="cv", number = 5,allowParallel = TRUE,verboseIter = FALSE,returnData = FALSE)
catboostGrid20 <- expand.grid(depth= c(2,6,8), learning_rate=0.1, iterations=100,
l2_leaf_reg=.05, rsm=.95, border_count=65)
catboost_model20 = train(
train_dataset_catboost2020,y_traincatboost20,method = catboost.caret,
logging_level="Silent",preProc=NULL,
tuneGrid = catboostGrid20,trControl=catboost_trcontrol20 )