[英]Matrix multiplication on CPU (numpy) and GPU (gnumpy) give different results
[英]Having quite different results in matrix multiplication with numpy and cudamat
我正在尝试使用numpy和cudamat进行相同的矩阵乘法。
结果是完全不同的。
我究竟做错了什么?
我正在使用:
这是代码:
import numpy as np
import cudamat as cm
cm.init()
...
def distance(self, X):
gpu_W = cm.CUDAMatrix(self.W)
gpu_X = cm.CUDAMatrix(X)
gpu_X2 = cm.pow(gpu_X, 2).sum(axis=1)
gpu_W2 = cm.pow(gpu_W, 2).sum(axis=1)
prodWX = cm.dot(gpu_W, gpu_X.T)
prodWX = prodWX.mult((-2))
W=self.W
prodWXgpu=prodWX.asarray()
prodWXcpu=-2*np.dot(W, X.T)
cm.shutdown()
结果是:
两者都是二维数组。 它们的形状是:
宽(14,2)X(10000,2)
它意味着每个单元有两个乘法和一个加法。 所以这不应该是因为累积误差
提前致谢
我发现了问题:cm.pow正在修改作为参数接收的矩阵。
为了解决这个问题,我更改了:
gpu_X2 = cm.pow(gpu_X, 2).sum(axis=1)
gpu_W2 = cm.pow(gpu_W, 2).sum(axis=1)
通过:
gpu_X2 = cm.empty (X.shape)
gpu_W2 = cm.empty (W.shape)
cm.pow(gpu_X, 2, target=gpu_X2)
gpu_X2 = gpu_X2.sum(axis=1)
cm.pow(gpu_W, 2, target=gpu_W2)
gpu_W2 = gpu_W2.sum(axis=1)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.