1

randomForest オブジェクトを巨大なラスター レイヤー (34 mio セル、120 以上のレイヤー) に予測しようとしています。そのため、パッケージclusterR内の関数を使用します。rasterただし、predict以前に計算さrandomForestれたオブジェクトを開始すると、すべての並列ワーカーに読み込まれます。したがって、すべてのプロセスを組み合わせると、大量のメモリが必要になります。

randomForestモデルを失うことなく、オブジェクトのサイズを縮小することは可能ですか? 誰もこれを経験していますか?

次のようなモデルを作成します。

library(randomForest)

set.seed(42)
df <- data.frame(class = sample(x = 1:3, size = 10000, replace = T))
str(df)

for (i in 1:100){
  df <- cbind(df, runif(10000))
}

colnames(df) <- c("class", 1:100)

df$class <- as.factor(df$class)

rfo <- randomForest(x = df[,2:ncol(df)], 
                    y = df$class, 
                    ntree = 500, 
                    do.trace = 10)

object.size(rfo) 
# 57110816 bytes
4

0 に答える 0