![](/img/trans.png)
[英]Matrix multiplication of (n,n,M) and (n,n) matrix in numpy Python
[英]Python `expm` of an `(N,M,M)` matrix
设A
是(N,M,M)
矩阵( N
非常大),我想为n in range(N)
每个n in range(N)
计算scipy.linalg.expm(A[n,:,:])
。 我当然可以使用for
循环,但我想知道是否有一些技巧以更好的方式执行此操作(类似于np.einsum
)。
我对其他操作有相同的问题,例如反转矩阵(反馈在注释中解决)。
根据矩阵的大小和结构,您可以做得比循环更好。
假设您的矩阵可以对角化为A = VDV^(-1)
(其中D
在其对角线上具有特征值, V
包含相应的特征向量作为列),您可以将矩阵指数计算为
exp(A) = V exp(D) V^(-1)
其中exp(D)
只包含对角线中每个特征值lambda
exp(lambda)
。 如果我们使用指数函数的幂级数定义,这很容易证明。 如果矩阵A
是正常的,则矩阵V
是单一的,因此可以通过简单地取其伴随来计算其逆。
好消息是numpy.linalg.eig
和numpy.linalg.inv
都可以正常使用堆叠矩阵:
import numpy as np
import scipy.linalg
A = np.random.rand(1000,10,10)
def loopy_expm(A):
expmA = np.zeros_like(A)
for n in range(A.shape[0]):
expmA[n,...] = scipy.linalg.expm(A[n,...])
return expmA
def eigy_expm(A):
vals,vects = np.linalg.eig(A)
return np.einsum('...ik, ...k, ...kj -> ...ij',
vects,np.exp(vals),np.linalg.inv(vects))
请注意,在指定einsum
调用中的操作顺序时,可能还有一些优化einsum
,但我没有对此进行调查。
测试上面的随机数组:
In [59]: np.allclose(loopy_expm(A),eigy_expm(A))
Out[59]: True
In [60]: %timeit loopy_expm(A)
824 ms ± 55.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [61]: %timeit eigy_expm(A)
138 ms ± 992 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
那已经很好了。 如果你足够幸运,你的矩阵都是正常的(例如,因为它们是真正对称的):
A = np.random.rand(1000,10,10)
A = (A + A.transpose(0,2,1))/2
def eigy_expm_normal(A):
vals,vects = np.linalg.eig(A)
return np.einsum('...ik, ...k, ...jk -> ...ij',
vects,np.exp(vals),vects.conj())
注意输入矩阵的对称定义和einsum
模式内的转置。 结果:
In [80]: np.allclose(loopy_expm(A),eigy_expm_normal(A))
Out[80]: True
In [79]: %timeit loopy_expm(A)
878 ms ± 89.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [80]: %timeit eigy_expm_normal(A)
55.8 ms ± 868 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
对于上面的示例形状,这是15倍的加速。
应该注意的是, scipy.linalg.eigm
根据文档使用Padé近似。 这可能意味着如果你的矩阵是病态的,那么特征值分解可能会产生与scipy.linalg.eigm
不同的结果。 我不熟悉这个功能如何工作,但我希望它对病理输入更安全。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.