[英]Finding the hierarchy relationships between number pairs in R
我想找到一种有效的方法来确定数字对表的整个层次类型关系,然后在向量或字符串中表达这种关系,这样我就可以确定关于每对层次结构的其他有用信息,例如最高相关integer,最低相关的 integer 和相关整数的总数。
例如,我有一个 integer 对表:
X Y
--- ---
5 10
5 11
11 12
11 13
13 3
20 18
17 18
50 18
20 21
如果一对中的任何值被另一对中的任何其他值共享,则一条记录与另一条记录相关。 决赛桌看起来像这样:
X Y Related ID's
--- --- ---------------
5 10 3,5,10,11,12,13
5 11 3,5,10,11,12,13
11 12 3,5,10,11,12,13
11 13 3,5,10,11,12,13
13 3 3,5,10,11,12,13
20 18 17,18,20,21,50
17 18 17,18,20,21,50
50 18 17,18,20,21,50
20 21 17,18,20,21,50
我现在所拥有的无疑是一团糟。 它使用了一个模糊连接和一个匹配的 function,它将 x,y 作为向量并在它们之间进行匹配。 然后该匹配会创建一个包含所有四个匹配数字的更大向量,该向量会返回到fuzzy_join 以再次进行匹配。 这个循环直到没有更多的匹配。 它很快变得很糟糕,并且在大约 4k 记录时它不再响应了。 整个初始配对表将保持 < 100k 条记录
在基础 R 你可以这样做:
relation <- function(dat){
.relation <- function(x){
k = unique(sort(c(dat[dat[, 1] %in% x, 2], x, dat[dat[, 2] %in% x, 1])))
if(setequal(x,k)) toString(k) else .relation(k)}
sapply(dat[,1],.relation)
}
df$related <- relation(df)
df
X Y related
1 5 10 3, 5, 10, 11, 12, 13
2 5 11 3, 5, 10, 11, 12, 13
3 11 12 3, 5, 10, 11, 12, 13
4 11 13 3, 5, 10, 11, 12, 13
5 13 3 3, 5, 10, 11, 12, 13
6 20 18 17, 18, 20, 21, 50
7 17 18 17, 18, 20, 21, 50
8 50 18 17, 18, 20, 21, 50
9 20 21 17, 18, 20, 21, 50
如果您安装了igraph
,您可以执行以下操作:
library(igraph)
a <- components(graph_from_data_frame(df, FALSE))$membership
b <- tapply(names(a),a,toString)
df$related <- b[a[as.character(df$X)]]
编辑:
如果我们要比较函数的速度,那么请注意,在我上面的 function 中,最后一条语句,即sapply(dat[,1], ...)
计算每个元素的值,即使在之前计算它之后也是如此。 例如sapply(c(5,5,5,5)...)
将计算组 4 次而不是一次。 现在使用:
relation <- function(dat){
.relation <- function(x){
k <- unique(c(dat[dat[, 1] %in% x, 2], x, dat[dat[, 2] %in% x, 1]))
if(setequal(x,k)) sort(k) else .relation(k)}
d <- unique(dat[,1])
m <- setNames(character(length(d)),d)
while(length(d) > 0){
s <- .relation(d[1])
m[as.character(s)] <- toString(s)
d <- d[!d%in%s]
}
dat$groups <- m[as.character(dat[,1])]
dat
}
现在做基准测试:
df1 <- do.call(rbind,rep(list(df),100))
microbenchmark::microbenchmark(relation(df1), group_pairs(df1),unit = "relative")
microbenchmark::microbenchmark(relation(df1), group_pairs(df1))
Unit: milliseconds
expr min lq mean median uq max neval
relation(df1) 1.0909 1.17175 1.499096 1.27145 1.6580 3.2062 100
group_pairs(df1) 153.3965 173.54265 199.559206 190.62030 213.7964 424.8309 100
igraph
的另一个选择
library(igraph)
clt <- clusters(graph_from_data_frame(df,directed = FALSE))$membership
within(df, ID <- ave(names(clt),clt,FUN = toString)[match(as.character(X),names(clt))])
这样
X Y ID
1 5 10 5, 11, 13, 10, 12, 3
2 5 11 5, 11, 13, 10, 12, 3
3 11 12 5, 11, 13, 10, 12, 3
4 11 13 5, 11, 13, 10, 12, 3
5 13 3 5, 11, 13, 10, 12, 3
6 20 18 20, 17, 50, 18, 21
7 17 18 20, 17, 50, 18, 21
8 50 18 20, 17, 50, 18, 21
9 20 21 20, 17, 50, 18, 21
这远没有 Onyambu 的基本 R 答案那么优雅,但我将其基准测试为快 4 或 5 倍。 它的工作原理是将每一行分配给一个组,将其内容添加到该组中所有数字的集合中,然后找到下一个未分配的行,该行中至少有一个成员。 一旦没有更多匹配的行,它就会跳转到下一个未分配的行。
group_pairs <- function(df)
{
df$ID <- numeric(nrow(df))
ID <- 1
row <- 1
current_set <- numeric()
while(any(df$ID == 0))
{
df$ID[row] <- ID
current_set <- unique(c(current_set, df$x[row], df$y[row]))
nextrows <- c(which(df$x %in% current_set & df$ID == 0),
which(df$y %in% current_set & df$ID == 0))
if (length(nextrows) > 0)
{
row <- unique(nextrows)[1]
}
else
{
ID <- ID + 1
row <- which(df$ID == 0)[1]
current_set <- numeric()
}
}
df$ID <- sapply(split(df[-3], df$ID),
function(i) paste(sort(unique(unlist(i))), collapse = ", "))[df$ID]
df
}
所以你可以这样做:
group_pairs(df)
#> x y ID
#> 1 5 10 3, 5, 10, 11, 12, 13
#> 2 5 11 3, 5, 10, 11, 12, 13
#> 3 11 12 3, 5, 10, 11, 12, 13
#> 4 11 13 3, 5, 10, 11, 12, 13
#> 5 13 3 3, 5, 10, 11, 12, 13
#> 6 20 18 17, 18, 20, 21, 50
#> 7 17 18 17, 18, 20, 21, 50
#> 8 50 18 17, 18, 20, 21, 50
#> 9 20 21 17, 18, 20, 21, 50
和
microbenchmark::microbenchmark(relation(df), group_pairs(df))
#> Unit: milliseconds
#> expr min lq mean median uq max neval cld
#> relation(df) 4.535100 5.027551 5.737164 5.829652 6.256301 7.669001 100 b
#> group_pairs(df) 1.022502 1.159601 1.398604 1.338501 1.458950 8.903800 100 a
我认为您也可以仅在tidyverse
中执行此类操作(我使用的是经过精心设计的 dataframe 并添加了几行)。 该策略将继续accumulate
(累积)related_ids。 这里的id
只是一个 rowid,没有任何特殊用途。 你也可以放弃这一步。
df <- data.frame(X = c(5,5,11,11,13,20, 17,50, 20, 5, 1, 17),
Y = c(10, 11, 12, 13, 3, 18, 18, 18, 21, 13, 2, 50))
library(tidyverse)
df %>% arrange(pmax(X, Y)) %>%
mutate(id = row_number()) %>% rowwise() %>%
mutate(related_ids = list(c(X, Y))) %>% ungroup() %>%
mutate(related_ids = accumulate(related_ids, ~if(any(.y %in% .x)){union(.x, .y)} else {.y})) %>%
as.data.frame()
#> X Y id related_ids
#> 1 1 2 1 1, 2
#> 2 5 10 2 5, 10
#> 3 5 11 3 5, 10, 11
#> 4 11 12 4 5, 10, 11, 12
#> 5 11 13 5 5, 10, 11, 12, 13
#> 6 13 3 6 5, 10, 11, 12, 13, 3
#> 7 5 13 7 5, 10, 11, 12, 13, 3
#> 8 17 18 8 17, 18
#> 9 20 18 9 17, 18, 20
#> 10 20 21 10 17, 18, 20, 21
#> 11 50 18 11 17, 18, 20, 21, 50
#> 12 17 50 12 17, 18, 20, 21, 50
由reprex package (v2.0.0) 于 2021 年 6 月 1 日创建
更新我认为您也可以使用以下解决方案。 它相当冗长,但我认为它非常有效:
library(dplyr)
# First I created an id column to be able to group the observations with any duplicated
# values
df %>%
arrange(X, Y) %>%
mutate(dup = ifelse((X == lag(X, default = 0) | X == lag(Y, default = 0)) |
(Y == lag(X, default = 0) | Y == lag(Y, default = 0)) |
(X == lag(X, n = 2L, default = 0) | Y == lag(Y, n = 2L, default = 0)) |
(X == lag(Y, n = 2L, default = 0) | Y == lag(X, n = 2L, default = 0)) |
(X == lag(Y, n = 3L, default = 0) | Y == lag(X, n = 3L, default = 0)) |
(X == lag(X, n = 3L, default = 0) | Y == lag(Y, n = 3L, default = 0)), 1, 0)) %>%
mutate(id = cumsum(dup == 0)) %>%
select(-dup) -> df1
df1 %>%
group_by(id) %>%
pivot_longer(c(X, Y), names_to = "Name", values_to = "Val") %>%
arrange(Val) %>%
mutate(dup = Val == lag(Val, default = 10000)) %>%
filter(!dup) %>%
mutate(across(Val, ~ paste(.x, collapse = "-"))) %>%
select(-dup) %>%
slice(2:n()) %>%
select(-Name) %>%
right_join(df1, by = "id") %>%
group_by(Val, X, Y) %>%
distinct() %>%
select(-id) %>%
relocate(X, Y)
# A tibble: 9 x 3
# Groups: Val, X, Y [9]
X Y Val
<int> <int> <chr>
1 5 10 3-5-10-11-12-13
2 5 11 3-5-10-11-12-13
3 11 12 3-5-10-11-12-13
4 11 13 3-5-10-11-12-13
5 13 3 3-5-10-11-12-13
6 17 18 17-18-20-21-50
7 20 18 17-18-20-21-50
8 20 21 17-18-20-21-50
9 50 18 17-18-20-21-50
我还尝试了@AnilGoyal 精心制作的数据框:
# A tibble: 12 x 3
# Groups: Val, X, Y [12]
X Y Val
<dbl> <dbl> <chr>
1 1 2 1-2
2 5 10 3-5-10-11-12-13
3 5 11 3-5-10-11-12-13
4 5 13 3-5-10-11-12-13
5 11 12 3-5-10-11-12-13
6 11 13 3-5-10-11-12-13
7 13 3 3-5-10-11-12-13
8 17 18 17-18-20-21-50
9 17 50 17-18-20-21-50
10 20 18 17-18-20-21-50
11 20 21 17-18-20-21-50
12 50 18 17-18-20-21-50
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.