[英]Sum 3D matrix cuda
我需要进行如下计算:A [x] [y] = sum {从z = 0到z = n} {B [x] [y] [z] + C [x] [y] [z]},其中矩阵A的尺寸为[height] [width],矩阵B,C的尺寸为[height] [width] [n]。
值通过以下方式映射到内存:
index = 0;
for (z = 0; z<n; ++z)
for(y = 0; y<width; ++y)
for(x = 0; x<height; ++x) {
matrix[index] = value;
index++;
}
Q1:这个Cuda内核可以吗?
idx = blockIdx.x*blockDim.x + threadIdx.x;
idy = blockIdx.y*blockDim.y + threadIdx.y;
for(z=0; z<n; z++){
A[idx*width+idy] += B[idx*width+idy+z*width*height] + C[idx*width+idy+z*width*height];
}
问题2:这是进行计算的较快方法吗?
idx = blockIdx.x*blockDim.x + threadIdx.x;
idy = blockIdx.y*blockDim.y + threadIdx.y;
idz = blockIdx.z*blockDim.z + threadIdx.z;
int stride_x = blockDim.x * gridDim.x;
int stride_y = blockDim.y * gridDim.y;
int stride_z = blockDim.z * gridDim.z;
while ( idx < height && idy < width && idz < n ) {
atomicAdd( &(A[idx*width+idy]), B[idx*width+idy+idz*width*height] + C[idx*width+idy+idz*width*height] );
idx += stride_x;
idy += stride_y;
idz += stride_z;
}
第一个内核没问题。 但是我们尚未合并对矩阵B
和C
访问。
至于第二内核功能。 您的数据竞争A[idx*width+idy]
因为不仅有一个线程能够写入A[idx*width+idy]
地址。 您需要其他同步,例如AttomicAdd
至于一般性问题:我认为实验表明效果更好。 这取决于您拥有的典型矩阵大小。 请记住,Fermi <1024上的最大线程块大小,并且如果矩阵的大小较大,则您会创建许多线程块。 通常它比较慢(有很多线程块)。
在ArrayFire中真正简单:
array A = randu(nx,ny,nz);
array B = sum(A,2); // sum along 3rd dimension
print(B);
Q1:用知道答案的矩阵进行测试
备注:使用非常大的矩阵时,您可能会遇到问题。 使用while循环以适当的增量。 与往常一样,Cuda by Example是参考书。
可在此处找到实现嵌套循环的示例: 对于使用CUDA的嵌套循环 。 实施了while循环。
marina.k关于比赛条件是正确的。 由于原子操作会减慢代码速度,因此这将更倾向于方法一。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.