![](/img/trans.png)
[英]R: Is it possible to parallelize / speed-up the reading in of a 20 million plus row CSV into R?
[英]R: Is it possible to vectorise / speed-up this double loop?
这是一个高层次的普遍问题。 周围也有一些相似的例子,但有不同且更简洁的示例。 也许无法回答。 conn
是一个矩阵。
for (i in 2:dim(conn)[1]) {
for (j in 2:dim(conn)[1]) {
if ((conn[i, 1] == conn[1, j]) & conn[i, 1] != 0) {
conn[i, j] <- 1
conn[j, i] <- 1
}
else {
conn[i, j] <- 0
conn[j, i] <- 0
}
}
}
这都直出cluscomp
从clusterCons包。
我的问题很简单:是否可以加快循环速度或使其向量化? 作为R的初学者,我看不到它,也不想以失败而告终,因为它可能无法实现。 我会接受任何可以回答“是”或“否”的答案,并暗示可能涉及的工作量。
这是我用outer
代替双循环的方式编写的。 请注意,它仍在进行比所需更多的计算,但是肯定更快。 我假设conn
是一个方矩阵。
原始代码:
f1 <- function(conn) {
for (i in 2:dim(conn)[1]) {
for (j in 2:dim(conn)[1]) {
if ((conn[i, 1] == conn[1, j]) & conn[i, 1] != 0) {
conn[i, j] <- 1
conn[j, i] <- 1
} else {
conn[i, j] <- 0
conn[j, i] <- 0
}
}
}
return(conn)
}
我的建议:
f2 <- function(conn) {
matches <- 1*outer(conn[-1,1], conn[1,-1], `==`)
matches[conn[-1,1] == 0, ] <- 0
ind <- upper.tri(matches)
matches[ind] <- t(matches)[ind]
conn[-1,-1] <- matches
return(conn)
}
一些样本数据:
set.seed(12345678)
conn <- matrix(sample(1:2, 5*5, replace=TRUE), 5, 5)
conn
# [,1] [,2] [,3] [,4] [,5]
# [1,] 2 2 1 2 1
# [2,] 1 1 2 2 1
# [3,] 2 2 1 2 1
# [4,] 2 2 2 2 1
# [5,] 1 1 2 2 1
结果:
f1(conn)
# [,1] [,2] [,3] [,4] [,5]
# [1,] 2 2 1 2 1
# [2,] 1 0 1 1 0
# [3,] 2 1 0 0 1
# [4,] 2 1 0 1 0
# [5,] 1 0 1 0 1
identical(f1(conn), f2(conn))
# [1] TRUE
一个更大的例子,带有时间比较:
set.seed(12345678)
conn <- matrix(sample(1:2, 1000*1000, replace=TRUE), 1000, 1000)
system.time(a1 <- f1(conn))
# user system elapsed
# 59.840 0.000 57.094
system.time(a2 <- f2(conn))
# user system elapsed
# 0.844 0.000 0.950
identical(a1, a2)
# [1] TRUE
也许不是您可以获得的最快方法(我毫无疑问,这里的其他人可以使用编译器或Rcpp找到更快的方法),但我希望它足够简短。
编辑:由于已经指出(从提取此代码的上下文中) conn
是对称矩阵,因此我的解决方案可以缩短一点:
f2 <- function(conn) {
matches <- outer(conn[-1,1], conn[1,-1],
function(i,j)ifelse(i==0, FALSE, i==j))
conn[-1,-1] <- as.numeric(matches)
return(conn)
}
非矩阵解-假设conn为非负且对称的...
connmake = function(conn){
ordering = order(conn[,1])
breakpoints = which(diff(conn[ordering,1]) != 0)
if (conn[ordering[1], 1] != 0){
breakpoints = c(1, breakpoints + 1, nrow(conn) + 1)
} else {
breakpoints = c(breakpoints + 1, nrow(conn) +1)
}
output = matrix(0, nrow(conn), nrow(conn))
for (i in 1:(length(breakpoints) - 1)){
output[ ordering[breakpoints[i]:(breakpoints[i+1] -1)],
ordering[breakpoints[i]:(breakpoints[i+1] -1)]] = 1
}
output[,1] = conn[,1]
output[1,] = conn[,1]
output
}
一些使用早期基准测试的测试代码。 (原始代码实现为orig()
, f2()
是较早的建议。)
size = 2000
conn = matrix(0, size, size)
conn[1,] = sample( 1:20, size, replace = T)
conn[,1] = conn[1,]
system.time(orig(conn) -> out1)
#user system elapsed
#20.54 0.00 20.54
system.time(f2(conn) -> out2)
#user system elapsed
#0.39 0.02 0.41
system.time(connmake(conn) -> out3)
#user system elapsed
#0.02 0.00 0.01
identical(out1, out2)
#[1] TRUE
identical(out1, out3)
#[1] TRUE
请注意,对于包含0的conn,f2实际上失败,但是不是我的问题,是吗? 带有负值的conn可以简单地通过例如将相关值增加一个安全偏移来处理。 非对称conn需要更多思考,但应该可行。
一般的教训是,与成对比较相比,排序速度更快。 成对比较是O(N ^ 2),而R中最慢的排序算法是O(N ^ 4/3)。 数据排序后,比较变得无关紧要。
我想到了几件事。
首先,您可以仅循环浏览对角线以下或对角线上方的条目,从而将时间缩短一半。 如果矩阵是正方形,则两者都可以工作。 如果dim(conn)[1] > dim(conn)[2]
则需要使用类似以下的方法遍历左下三角形
for (j in 2:dim(conn)[2]) {
for (i in j:dim(conn)[1]) {
...
}
}
其次,人们可能会尝试使用apply
,这是很麻烦的,因为它们通常会减少大量时间。 但是,在这种情况下,每个[i,j]单元格都指向列头[1,j]
和行头[i,1]
,这意味着我们不能只将单元格,行或列发送给* pply。 为了清楚起见,我可能会保留for
循环。 任何基于* pply的技巧都非常聪明,以至于我忘了一年后它是如何运作的。
最后,这似乎是一个经典的示例,它使用从R调用的C可以使速度大大提高。这似乎是很多工作,但比您想象的要容易得多,即使(对于此特定示例)如果您不了解C。对我来说,从R调用C的第一个简短示例在这里 ,但是它没有利用Rcpp,因此我不会就此止步。 另外,如果您从工作Rcpp代码的任何简单示例开始,那么您可以对其进行修改以执行您想要的操作。 如果您只想修改其他人的代码,请从此StackOverflow线程开始。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.