R - 转换为虚拟变量时内存不足
R - out of memory when converting to dummy variables
我有一个数据集,其分类变量的级别数很丑(5000 左右)。
当我 运行 我的代码转换为虚拟变量时,它说它需要 22 GB 的内存和崩溃
dmy <- dummyVars(" ~ .", data = num_data)
new_data <- data.frame(predict(dmy, newdata = num_data))
遇到这种情况我该怎么办?寻求云解决方案?
尝试优化功能?
是的,试试sparse.model.matrix
或者扩展你的内存限制
memory.limit(10*memory.limit())
我有一个数据集,其分类变量的级别数很丑(5000 左右)。 当我 运行 我的代码转换为虚拟变量时,它说它需要 22 GB 的内存和崩溃
dmy <- dummyVars(" ~ .", data = num_data)
new_data <- data.frame(predict(dmy, newdata = num_data))
遇到这种情况我该怎么办?寻求云解决方案? 尝试优化功能?
是的,试试sparse.model.matrix
或者扩展你的内存限制
memory.limit(10*memory.limit())