![](/img/trans.png)
[英]Most efficient way to select subset of rows from scipy csr sparse matrix
[英]Most efficient way to index into a numpy array from a scipy CSR matrix?
我有一个形状为(4000, 3)
4000,3)的numpy ndarray X
,其中X
中的每个样本都是3D坐标(x,y,z)。
我有一个形状为(4000, 4000)
的sscipy csr矩阵nn_rad_csr
,它是从sklearn.neighbors.radius_neighbors_graph(X, 0.01, include_self=True)
生成的最近邻居图。
nn_rad_csr.toarray()[i]
是形状(4000,)的稀疏矢量,其二进制权重(0或1)与节点X[i]
的最近邻居图中的边关联。
例如,如果nn_rad_csr.toarray()[i][j] == 1
则X[j]
在X[i]
的最近邻居半径内,而值0
表示它不是邻居。
我想做的是有一个函数radius_graph_conv(X, rad)
,该函数返回一个数组Y
,该数组Y
为X
,按其邻居的值平均。 我不确定如何利用CSR矩阵的稀疏性来有效地执行radius_graph_conv
。 我在下面有两个简单的图转换的实现。
import numpy as np
from sklearn.neighbors import radius_neighbors_graph, KDTree
def radius_graph_conv(X, rad):
nn_rad_csr = radius_neighbors_graph(X, rad, include_self=True)
csr_indices = nn_rad_csr.indices
csr_indptr = nn_rad_csr.indptr
Y = np.copy(X)
for i in range(X.shape[0]):
j, k = csr_indptr[i], csr_indptr[i+1]
neighbor_idx = csr_indices[j:k]
rad_neighborhood = X[neighbor_idx] # ndim always 2
Y[i] = np.mean(rad_neighborhood, axis=0)
return Y
def radius_graph_conv_matmul(X, rad):
nn_rad_arr = radius_neighbors_graph(X, rad, include_self=True).toarray()
# np.sum(nn_rad_arr, axis=-1) is basically a count of neighbors
return np.matmul(nn_rad_arr / np.sum(nn_rad_arr, axis=-1), X)
有一个更好的方法吗? 使用knn图,它的功能非常简单,因为邻居的数目是固定的,您可以索引到X,但是对于基于半径或密度的最近邻居图,则必须使用CSR(或数组)数组(如果您使用的是kd树)。
这是利用csr格式的直接方法。 您的matmul解决方案可能在后台执行类似的操作。 但是我们还利用它是一个邻接矩阵来保存一个查找(来自.data
属性)。 同样, diff
.indptr
应该比求和相等的数量更有效。
>>> import numpy as np
>>> from scipy import sparse
>>>
# create mock data
>>> A = np.random.random((100, 100)) < 0.1
>>> A = (A | A.T).view(np.uint8)
>>> AS = sparse.csr_matrix(A)
>>> X = np.random.random((100, 3))
>>>
# dense solution for reference
>>> Xa = A @ X / A.sum(axis=-1, keepdims=True)
# sparse solution
>>> XaS = np.add.reduceat(X[AS.indices], AS.indptr[:-1], axis=0) / np.diff(AS.indptr)[:, None]
>>>
# check they are the same
>>> np.allclose(Xa, XaS)
True
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.