randomForest 模型大小取决于训练集大小:一种避免方法?
randomForest model size depends on the training set size: A way to avoid?
我正在训练一个 randomForest 模型,目标是保存它用于预测(它将被下载并在外部环境中使用)。我希望这个模型尽可能小。
我读到有一些options and packages可以减少模型的内存大小。
不过,我不明白为什么训练集的大小与模型的大小有关?毕竟森林的系数有了,为什么还要保留原始数据集呢?
df <- iris
model <- randomForest::randomForest(Species ~ ., data = df,
localImp = FALSE,
importance = FALSE,
keep.forest = TRUE,
keep.inbag = FALSE,
proximity=FALSE,
ntree = 25)
object.size(model)/1000
#> 73.2 bytes
df <- df[sample(nrow(df), 50), ]
model <- randomForest::randomForest(Species ~ ., data = df,
localImp = FALSE,
importance = FALSE,
keep.forest = TRUE,
keep.inbag = FALSE,
proximity=FALSE,
ntree = 25)
object.size(model)/1000
#> 43 bytes
由 reprex package (v0.2.1)
创建于 2019-05-21
我已经尝试过上面提到的减小尺寸的技巧,但与训练集尺寸的作用相比,它们的效果是微不足道的。有没有办法删除这些信息?
我认为您可以在拟合后删除模型的某些部分:
object.size(model)/1000
# 70.4 bytes
model$predicted <- NULL # remove predicted
model$y <- NULL # remove y
#.. possibly other parts aren't needed
object.size(model)/1000
# 48.3 bytes
我检查了 predict(model, df)
看它是否仍然有效,它确实有效。
使用names(model)
检查model
内的元素。
看来 $votes
太大了,你不需要它,这里是我安全删除的更多项目:
model$predicted <- NULL
model$y <- NULL
model$err.rate <- NULL
model$test <- NULL
model$proximity <- NULL
model$confusion <- NULL
model$localImportance <- NULL
model$importanceSD <- NULL
model$inbag <- NULL
model$votes <- NULL
model$oob.times <- NULL
object.size(model)/1000
# 32.3 bytes
示例:
df <- iris
model <- randomForest::randomForest(Species ~ ., data = df,
localImp = FALSE,
importance = FALSE,
keep.forest = TRUE,
keep.inbag = FALSE,
proximity=FALSE,
ntree = 25)
我正在训练一个 randomForest 模型,目标是保存它用于预测(它将被下载并在外部环境中使用)。我希望这个模型尽可能小。
我读到有一些options and packages可以减少模型的内存大小。
不过,我不明白为什么训练集的大小与模型的大小有关?毕竟森林的系数有了,为什么还要保留原始数据集呢?
df <- iris
model <- randomForest::randomForest(Species ~ ., data = df,
localImp = FALSE,
importance = FALSE,
keep.forest = TRUE,
keep.inbag = FALSE,
proximity=FALSE,
ntree = 25)
object.size(model)/1000
#> 73.2 bytes
df <- df[sample(nrow(df), 50), ]
model <- randomForest::randomForest(Species ~ ., data = df,
localImp = FALSE,
importance = FALSE,
keep.forest = TRUE,
keep.inbag = FALSE,
proximity=FALSE,
ntree = 25)
object.size(model)/1000
#> 43 bytes
由 reprex package (v0.2.1)
创建于 2019-05-21我已经尝试过上面提到的减小尺寸的技巧,但与训练集尺寸的作用相比,它们的效果是微不足道的。有没有办法删除这些信息?
我认为您可以在拟合后删除模型的某些部分:
object.size(model)/1000
# 70.4 bytes
model$predicted <- NULL # remove predicted
model$y <- NULL # remove y
#.. possibly other parts aren't needed
object.size(model)/1000
# 48.3 bytes
我检查了 predict(model, df)
看它是否仍然有效,它确实有效。
使用names(model)
检查model
内的元素。
看来 $votes
太大了,你不需要它,这里是我安全删除的更多项目:
model$predicted <- NULL
model$y <- NULL
model$err.rate <- NULL
model$test <- NULL
model$proximity <- NULL
model$confusion <- NULL
model$localImportance <- NULL
model$importanceSD <- NULL
model$inbag <- NULL
model$votes <- NULL
model$oob.times <- NULL
object.size(model)/1000
# 32.3 bytes
示例:
df <- iris
model <- randomForest::randomForest(Species ~ ., data = df,
localImp = FALSE,
importance = FALSE,
keep.forest = TRUE,
keep.inbag = FALSE,
proximity=FALSE,
ntree = 25)