在 R 中使用应用函数族进行矢量化
Vectorization using apply family of functions in R
我正在使用线性回归模型,我想手动计算一些性能指标。我使用留一法交叉验证 (LOOCV) 拆分数据。
下面的 R 代码给了我想要的结果,但需要很长时间,因为我正在使用带有 LOOCV 的 for 循环。
有没有一种方法可以快速重写我的代码,例如使用 R 中的应用函数族?
数据集上传自here
wdbc <- read_excel("Folds5x2_pp.xlsx")
wdbc[] <- lapply(wdbc, scale)
dim(wdbc)
9568 5
head(wdbc)
1 -0.629 -0.987 1.82 -0.00952 0.521
2 0.742 0.681 1.14 -0.975 -0.586
3 -1.95 -1.17 -0.185 1.29 2.00
4 0.162 0.237 -0.508 0.228 -0.462
5 -1.19 -1.32 -0.678 1.60 1.14
6 0.888 0.404 -0.173 -0.996 -0.627
fitted_value <- rep(0,nrow(wdbc))
for(i in 1:nrow(wdbc)){
test<-wdbc[i,]
training<-wdbc[-i,]
m=lad(PE ~ ., data=training, method="BR")
co.data = coef(m)
x = cbind(1, as.matrix(test[, !(colnames(test) %in% "PE")]))
fitted_value[i] <- x %*% co.data
}
R2<-(cor(wdbc$PE,fitted_value)^2)
SAD<-sum(abs(wdbc$PE-fitted_value))
c(round(SAD,2) ,round(R2,2))
注 1
问题中使用的数据只是为了解释,因为在我的项目中我有很多高维度的数据集。
编辑
根据@Dominic van Essen 的回答,我使用了以下 R 代码,使用了 parallel
包中的 parSapply
函数,但它比 for 循环花费的时间更多。
library(parallel)
mycluster=makeCluster(detectCores()-1)
wdbc <- read_excel("Folds5x2_pp.xlsx")
wdbc[] <- lapply(wdbc, scale)
clusterExport(mycluster,c("lad","wdbc"))
fitted_value = parSapply(mycluster,seq_len(nrow(wdbc)),function(i) {
for(i in 1:nrow(wdbc)){
test<-wdbc[i,]
training<-wdbc[-i,]
m=lad(PE ~ ., data=training, method="BR")
co.data = coef(m)
x = cbind(1, as.matrix(test[, !(colnames(test) %in% "PE")]))
}
return (x %*% co.data)
})
注 2
我有8个核,"PE"是我数据集中的因变量
您可以使用 sapply
而不是 for...
轻松地重写您的循环,尽管正如 bzki 评论的那样,仅此一项并不会加速您的代码:
# sapply version:
fitted_value = sapply(seq_len(nrow(wdbc)),function(i) {
# put all the gubbins in here
# ...
return (x %*% co.data)
})
但是,如果您的计算机上有多个可用内核,或者 - 甚至更好 - 访问具有多个处理器的服务器,那么 sapply
循环可以使用 parSapply
轻松并行化'parallel'包,如本例所示:
# slow sapply loop (takes 12s):
data=123
answer = sapply(1:12,function(i) {
Sys.sleep(1)
return(data+i)
})
# faster parallel version (takes 4s on my laptop with 4 cores):
library(parallel)
mycluster=makeCluster(detectCores()-1) # leave 1 core available for system
data=123
clusterExport(mycluster,"data") # specify variable(s) that should be available to parallel function
answer = parSapply(mycluster,1:12,function(i) {
Sys.sleep(1)
return(data+i)
})
stopCluster(mycluster)
我正在使用线性回归模型,我想手动计算一些性能指标。我使用留一法交叉验证 (LOOCV) 拆分数据。
下面的 R 代码给了我想要的结果,但需要很长时间,因为我正在使用带有 LOOCV 的 for 循环。
有没有一种方法可以快速重写我的代码,例如使用 R 中的应用函数族?
数据集上传自here
wdbc <- read_excel("Folds5x2_pp.xlsx")
wdbc[] <- lapply(wdbc, scale)
dim(wdbc)
9568 5
head(wdbc)
1 -0.629 -0.987 1.82 -0.00952 0.521
2 0.742 0.681 1.14 -0.975 -0.586
3 -1.95 -1.17 -0.185 1.29 2.00
4 0.162 0.237 -0.508 0.228 -0.462
5 -1.19 -1.32 -0.678 1.60 1.14
6 0.888 0.404 -0.173 -0.996 -0.627
fitted_value <- rep(0,nrow(wdbc))
for(i in 1:nrow(wdbc)){
test<-wdbc[i,]
training<-wdbc[-i,]
m=lad(PE ~ ., data=training, method="BR")
co.data = coef(m)
x = cbind(1, as.matrix(test[, !(colnames(test) %in% "PE")]))
fitted_value[i] <- x %*% co.data
}
R2<-(cor(wdbc$PE,fitted_value)^2)
SAD<-sum(abs(wdbc$PE-fitted_value))
c(round(SAD,2) ,round(R2,2))
注 1
问题中使用的数据只是为了解释,因为在我的项目中我有很多高维度的数据集。
编辑
根据@Dominic van Essen 的回答,我使用了以下 R 代码,使用了 parallel
包中的 parSapply
函数,但它比 for 循环花费的时间更多。
library(parallel)
mycluster=makeCluster(detectCores()-1)
wdbc <- read_excel("Folds5x2_pp.xlsx")
wdbc[] <- lapply(wdbc, scale)
clusterExport(mycluster,c("lad","wdbc"))
fitted_value = parSapply(mycluster,seq_len(nrow(wdbc)),function(i) {
for(i in 1:nrow(wdbc)){
test<-wdbc[i,]
training<-wdbc[-i,]
m=lad(PE ~ ., data=training, method="BR")
co.data = coef(m)
x = cbind(1, as.matrix(test[, !(colnames(test) %in% "PE")]))
}
return (x %*% co.data)
})
注 2
我有8个核,"PE"是我数据集中的因变量
您可以使用 sapply
而不是 for...
轻松地重写您的循环,尽管正如 bzki 评论的那样,仅此一项并不会加速您的代码:
# sapply version:
fitted_value = sapply(seq_len(nrow(wdbc)),function(i) {
# put all the gubbins in here
# ...
return (x %*% co.data)
})
但是,如果您的计算机上有多个可用内核,或者 - 甚至更好 - 访问具有多个处理器的服务器,那么 sapply
循环可以使用 parSapply
轻松并行化'parallel'包,如本例所示:
# slow sapply loop (takes 12s):
data=123
answer = sapply(1:12,function(i) {
Sys.sleep(1)
return(data+i)
})
# faster parallel version (takes 4s on my laptop with 4 cores):
library(parallel)
mycluster=makeCluster(detectCores()-1) # leave 1 core available for system
data=123
clusterExport(mycluster,"data") # specify variable(s) that should be available to parallel function
answer = parSapply(mycluster,1:12,function(i) {
Sys.sleep(1)
return(data+i)
})
stopCluster(mycluster)