![](/img/trans.png)
[英]How to efficiently apply function over each row of ndarray with value from list of args?
[英]Apply a function to each row of a ndarray
我有这个函数来计算向量x的平方Mahalanobis距离意味着:
def mahalanobis_sqdist(x, mean, Sigma):
'''
Calculates squared Mahalanobis Distance of vector x
to distibutions' mean
'''
Sigma_inv = np.linalg.inv(Sigma)
xdiff = x - mean
sqmdist = np.dot(np.dot(xdiff, Sigma_inv), xdiff)
return sqmdist
我有一个numpy数组,形状为(25, 4)
25,4 (25, 4)
。 所以,我想在没有for循环的情况下将该函数应用于我的数组的所有25行。 那么,基本上,我该如何编写这个循环的矢量化形式:
for r in d1:
mahalanobis_sqdist(r[0:4], mean1, Sig1)
其中mean1
和Sig1
是:
>>> mean1
array([ 5.028, 3.48 , 1.46 , 0.248])
>>> Sig1 = np.cov(d1[0:25, 0:4].T)
>>> Sig1
array([[ 0.16043333, 0.11808333, 0.02408333, 0.01943333],
[ 0.11808333, 0.13583333, 0.00625 , 0.02225 ],
[ 0.02408333, 0.00625 , 0.03916667, 0.00658333],
[ 0.01943333, 0.02225 , 0.00658333, 0.01093333]])
我尝试过以下但是没有用:
>>> vecdist = np.vectorize(mahalanobis_sqdist)
>>> vecdist(d1, mean1, Sig1)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/usr/lib/python2.7/dist-packages/numpy/lib/function_base.py", line 1862, in __call__
theout = self.thefunc(*newargs)
File "<stdin>", line 6, in mahalanobis_sqdist
File "/usr/lib/python2.7/dist-packages/numpy/linalg/linalg.py", line 445, in inv
return wrap(solve(a, identity(a.shape[0], dtype=a.dtype)))
IndexError: tuple index out of range
要将函数应用于数组的每一行,您可以使用:
np.apply_along_axis(mahalanobis_sqdist, 1, d1, mean1, Sig1)
然而,在这种情况下,有一种更好的方法。 您不必将函数应用于每一行。 相反,您可以将NumPy操作应用于整个d1
数组以计算相同的结果。 np.einsum可以替换for-loop
和两次调用np.dot
:
def mahalanobis_sqdist2(d, mean, Sigma):
Sigma_inv = np.linalg.inv(Sigma)
xdiff = d - mean
return np.einsum('ij,im,mj->i', xdiff, xdiff, Sigma_inv)
以下是一些基准测试:
import numpy as np
np.random.seed(1)
def mahalanobis_sqdist(x, mean, Sigma):
'''
Calculates squared Mahalanobis Distance of vector x
to distibutions mean
'''
Sigma_inv = np.linalg.inv(Sigma)
xdiff = x - mean
sqmdist = np.dot(np.dot(xdiff, Sigma_inv), xdiff)
return sqmdist
def mahalanobis_sqdist2(d, mean, Sigma):
Sigma_inv = np.linalg.inv(Sigma)
xdiff = d - mean
return np.einsum('ij,im,mj->i', xdiff, xdiff, Sigma_inv)
def using_loop(d1, mean, Sigma):
expected = []
for r in d1:
expected.append(mahalanobis_sqdist(r[0:4], mean1, Sig1))
return np.array(expected)
d1 = np.random.random((25,4))
mean1 = np.array([ 5.028, 3.48 , 1.46 , 0.248])
Sig1 = np.cov(d1[0:25, 0:4].T)
expected = using_loop(d1, mean1, Sig1)
result = np.apply_along_axis(mahalanobis_sqdist, 1, d1, mean1, Sig1)
result2 = mahalanobis_sqdist2(d1, mean1, Sig1)
assert np.allclose(expected, result)
assert np.allclose(expected, result2)
In [92]: %timeit mahalanobis_sqdist2(d1, mean1, Sig1)
10000 loops, best of 3: 31.1 µs per loop
In [94]: %timeit using_loop(d1, mean1, Sig1)
1000 loops, best of 3: 569 µs per loop
In [91]: %timeit np.apply_along_axis(mahalanobis_sqdist, 1, d1, mean1, Sig1)
1000 loops, best of 3: 806 µs per loop
因此, mahalanobis_sqdist2
比for-loop
快约18倍,比使用np.apply_along_axis
快26倍。
请注意, np.apply_along_axis
, np.vectorize
, np.frompyfunc
是Python实用程序函数。 在引擎盖下,它们使用for-
或while-loop
s。 这里没有真正的“矢量化”。 他们可以提供语法帮助,但是不要指望它们使你的代码比你自己编写的for-loop
更好。
@unutbu的答案非常适合将任何函数应用于数组的行。 在这种特殊情况下,您可以使用一些数学对称性,如果您使用大型数组,这将大大加快速度。
以下是您的功能的修改版本:
def mahalanobis_sqdist3(x, mean, Sigma):
Sigma_inv = np.linalg.inv(Sigma)
xdiff = x - mean
return (xdiff.dot(Sigma_inv)*xdiff).sum(axis=-1)
如果您最终使用任何类型的大型Sigma
,我建议您缓存Sigma_inv
并将其作为参数传递给您的函数。 由于在这个例子中它是4x4,这没关系。 无论如何,我将展示如何处理大型Sigma
,对于遇到这种情况的任何其他人。
如果您不打算重复使用相同的Sigma
,则无法对其进行缓存,因此,您可以使用不同的方法来解决线性系统,而不是反转矩阵。 在这里,我将使用SciPy内置的LU分解。 如果x
的列数相对于其行数较大,则这仅改善了时间。
这是一个显示该方法的函数:
from scipy.linalg import lu_factor, lu_solve
def mahalanobis_sqdist4(x, mean, Sigma):
xdiff = x - mean
Sigma_inv = lu_factor(Sigma)
return (xdiff.T*lu_solve(Sigma_inv, xdiff.T)).sum(axis=0)
这是一些时间安排。 我会在其他答案中提到包含einsum
的版本。
import numpy as np
Sig1 = np.array([[ 0.16043333, 0.11808333, 0.02408333, 0.01943333],
[ 0.11808333, 0.13583333, 0.00625 , 0.02225 ],
[ 0.02408333, 0.00625 , 0.03916667, 0.00658333],
[ 0.01943333, 0.02225 , 0.00658333, 0.01093333]])
mean1 = np.array([ 5.028, 3.48 , 1.46 , 0.248])
x = np.random.rand(25, 4)
%timeit np.apply_along_axis(mahalanobis_sqdist, 1, x, mean1, Sig1)
%timeit mahalanobis_sqdist2(x, mean1, Sig1)
%timeit mahalanobis_sqdist3(x, mean1, Sig1)
%timeit mahalanobis_sqdist4(x, mean1, Sig1)
赠送:
1000 loops, best of 3: 973 µs per loop
10000 loops, best of 3: 36.2 µs per loop
10000 loops, best of 3: 40.8 µs per loop
10000 loops, best of 3: 83.2 µs per loop
但是,更改所涉及的阵列的大小会更改计时结果。 例如,让x = np.random.rand(2500, 4)
,时间是:
10 loops, best of 3: 95 ms per loop
1000 loops, best of 3: 355 µs per loop
10000 loops, best of 3: 131 µs per loop
1000 loops, best of 3: 337 µs per loop
并且让x = np.random.rand(1000, 1000)
, Sigma1 = np.random.rand(1000, 1000)
和mean1 = np.random.rand(1000)
,时间是:
1 loops, best of 3: 1min 24s per loop
1 loops, best of 3: 2.39 s per loop
10 loops, best of 3: 155 ms per loop
10 loops, best of 3: 99.9 ms per loop
编辑 :我注意到其他一个答案使用了Cholesky分解。 鉴于Sigma
是对称且肯定的,我们实际上可以比上面的结果做得更好。 通过SciPy可以获得BLAS和LAPACK的一些很好的例程,它们可以使用对称正定矩阵。 这是两个更快的版本。
from scipy.linalg.fblas import dsymm
def mahalanobis_sqdist5(x, mean, Sigma_inv):
xdiff = x - mean
Sigma_inv = la.inv(Sigma)
return np.einsum('...i,...i->...',dsymm(1., Sigma_inv, xdiff.T).T, xdiff)
from scipy.linalg.flapack import dposv
def mahalanobis_sqdist6(x, mean, Sigma):
xdiff = x - mean
return np.einsum('...i,...i->...', xdiff, dposv(Sigma, xdiff.T)[1].T)
第一个仍然反转Sigma。 如果你预先计算逆并重复使用它,它会快得多(1000x1000的情况在我的机器上需要35.6ms,并带有预先计算的逆)。 我还使用einsum取出产品然后沿最后一个轴求和。 这最终比做(A * B).sum(axis=-1)
更快。 这两个函数给出以下时间:
第一个测试用例:
10000 loops, best of 3: 55.3 µs per loop
100000 loops, best of 3: 14.2 µs per loop
第二个测试案例:
10000 loops, best of 3: 121 µs per loop
10000 loops, best of 3: 79 µs per loop
第三个测试用例:
10 loops, best of 3: 92.5 ms per loop
10 loops, best of 3: 48.2 ms per loop
刚看到reddit上的一个非常好的评论,可能会加快速度:
对于经常使用numpy的人来说,这并不奇怪。 因为python中的循环非常慢。 实际上,einsum也很慢。 如果你有很多向量,那么这个版本会更快(4个维度中的500个向量足以使这个版本比我机器上的einsum更快):
def no_einsum(d, mean, Sigma):
L_inv = np.linalg.inv(numpy.linalg.cholesky(Sigma))
xdiff = d - mean
return np.sum(np.dot(xdiff, L_inv.T)**2, axis=1)
如果你的点也是高维的,那么计算逆是很慢(并且通常是一个坏主意)并且你可以通过直接求解系统来节省时间(250个维度中的500个向量足以使这个版本在我的机器上最快):
def no_einsum_solve(d, mean, Sigma):
L = numpy.linalg.cholesky(Sigma)
xdiff = d - mean
return np.sum(np.linalg.solve(L, xdiff.T)**2, axis=0)
问题是np.vectorize
所有参数进行矢量化,但是您需要仅在第一个参数上进行矢量化。 您需要使用excluded
关键字参数进行vectorize
:
np.vectorize(mahalanobis_sqdist, excluded=[1, 2])
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.