![](/img/trans.png)
[英]Why does cmake add_dependencies not work for libraries with CUDA code?
[英]Share memory in CUDA ? How does it CODE work?
我有一个程序来计算array的值:array A:有32个元素,值形式为0->31。array B:有16个元素,value = 0;
**我想按照此规则计算B [i]的值:B [i] = A [i * 2] + A [i * 2 + 1]; 我从0到31 **我在示例代码中使用CUDA编程:
Main.cu
__global__ void Kernel(int *devB, int *devA)
{
// Use share memory, 16 thread per block, so I use 16element for share memory in block
__shared__ int smA[16];
//copy data from global memory to shared memory
//1 thread copies 1 elementente
smA[threadIdx.x] = devA[threadIdx.x + blockIdx.x * blockDim.x];
__syncthreads();
//8 thread in Block
if (threadIdx.x < 8)
{
devB[threadIdx.x + blockIdx.x * blockDim.x] =
smA[threadIdx.x * 2] + smA[threadIdx.x * 2 + 1];
}
}
虚空主
void main()
{
int *A = (int*)malloc(sizeof(int) * 32);
int *B = (int*)malloc(sizeof(int) * 16);
for (int i = 0; i < 32; i++)
A[i] = i;
int *devA = NULL;
cudaMalloc((void**)&devA, sizeof(int) * 32);
cudaMemcpy(devA, A, sizeof(int) * 32), cudaMemcpyHostToDevice);
int * devB = NULL;
cudaMalloc((void**)&devB, sizeof(int) * 16);
dim3 block(16, 1, 1);
dim3 grid(2, 1, 1);
Kernel<<<grid, block>>>(devB, devA);
//copy back data to host
cudaMemcpy(B, devB, sizeof(int) * 16, cudaMemcpyDeviceToHost);
for (int i = 0; i < 16; i++) printf("%d/t", b[i]);
if (A != NULL) free(A);
if (B != NULL) free(B);
if (devA != NULL) cudaFree(devA);
if (devB != NULL) cudaFree(devB);
}
因此,我想问一个问题:按照上面的代码,我在内核中使用Share memory int smnA [16],并使用2个块= 2 * 16线程, 因为每个线程都执行一个内核 (来自Seland.pdf)=> 共享内存中有16x16 = 256个元素 ? =>这没有逻辑!
没有您的假设是错误的。 因为共享内存可用于同一块内线程的交互,所以共享内存也分配给整个线程块。 在您的示例中,每个线程块将使用16个整数元素。 您的内核总共需要32个整数元素才能同时运行所有线程块。 即使它不一样,但也许您可以将其与C代码中的静态变量进行比较。
如果您在内核中编写类似以下代码示例的内容,则每个线程将使用它自己的包含16个元素的数组。 但是该数组不能被其他线程访问(例外是随机播放指令)。
__globa__ void kernel (...)
{
int array_single_thread[16]; // Every thread instance has it's own array.
...
__shared__ int array_thread_block[16]; // Once allocated for complete thread block.
}
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.