[英]OpenCL's clEnqueueReadBufferRect works for int but not double data type
[英]OpenCL - Atomic operation with double - works until limit
在此链接之后,我尝试实现一个原子函数来计算双atom_add
数组的总和,因此我实现了自己的atom_add
函数(用于双atom_add
)。
这是使用的内核代码:
#pragma OPENCL EXTENSION cl_khr_fp64: enable
#pragma OPENCL EXTENSION cl_khr_int64_base_atomics : enable
void atom_add_double(__global double *val, double delta)
{
union {
double f;
ulong i;
} old, new;
do
{
old.f = *val;
new.f = old.f + delta;
}
while (atom_cmpxchg((volatile __global ulong *)val, old.i, new.i) != old.i);
}
__kernel void sumGPU ( __global const double *input,
__global double *finalSum
)
{
// Index of current workItem
uint gid = get_global_id(0);
// Init sum
*finalSum = 0.0;
// Compute final sum
atom_add_double(finalSum, input[gid]);
}
我的问题是内核代码会产生良好的结果,直到我达到大约 100000 个元素的input
数组大小。
超过此限制,计算不再有效(我可以轻松检查结果,因为在我的测试用例中,我通过循环填充输入数组for(i=0;i<sizeArray;i++) input[i]=i+1;
,所以总和等于sizeArray*(sizeArray+1)/2
)。
我可以定义一个像atom_add_double
这样的函数atom_add_double
放入内核代码中吗?
@huseyin 的答案是解决问题的正确答案。
但是,我忍不住要说“不要用原子来减少”。
甚至更糟糕的原子锁定在 while 循环中并直接访问全局数据。 我们可能至少在谈论 10 倍的性能损失。
如果可以,请使用适当的自动缩减 (CL 2.0+) 。
__kernel void sumGPU(__global const double *input, __global double *finalSum)
{
// Index of current workItem
uint gid = get_global_id(0);
// Sum locally without atomics
double sum = work_group_scan_inclusive_add(input[gid]);
// Compute final sum using atomics
// but it is even better if just store them in an array and do final sum in CPU
// Only add the last one, since it contains the total sum
if (get_local_id(0) == get_local_size(0) - 1) {
atom_add_double(finalSum, sum);
}
}
*finalSum = 0.0;
是所有运行中线程的竞争条件。 它使我的计算机的结果为零。 删除它,从主机端初始化它。 如果您的 GPU 非常好,则运行中线程的数量可能高达 50000 甚至更多,并且在任何开始原子函数之前每个线程都达到 finalSum = 0.0 但是当您超过该限制时,第 50001 个(只是一个简单的数字)线程将其重新初始化为零。
然后,所有元素的总和不等于 size*(size+1)/2 因为它从零开始(第零个元素为零)所以它实际上是
(size-1)*(size)/2
当我从内核中删除 finalSum =0.0 时,它会为我的计算机提供正确的结果。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.