簡體   English   中英

CUDA矩陣加法段故障

[英]CUDA Matrix Addition Seg faults

我只是有一個關於我編寫的cuda程序的問題。 它允許我輸入矩陣,列和行的大小。 假設我輸入了〜1124,它計算得很好。 但是說我輸入1149,它會在設備中的計算后出現段故障(我認為這是在回寫期間出現段故障)。 但是說我輸入2000會在設備中進行計算之前發生段錯誤(我認為復制期間會出現段錯誤)。 我認為我的問題全部與內存管理有關。 如果你們能指出正確的方向,我將不勝感激。

我在代碼中加上了如何調用它。 在新的編輯中(在底部),它包含:sumMatrix(具有eleCount1的大小的空白矩陣,它是整個矩陣的大小),matrixOne(第一個矩陣),matrixTwo(第二個矩陣,以與matrix1相同的方式分配) ,eleCount1(整個矩陣的大小)。 從文件中讀取了matrixOne和兩個。

不確定是否有人需要查看有關我的GPU的這些信息:

  • 恆定內存總量:65536字節
  • 每個塊的共享內存總數:49152字節
  • 每個塊可用的寄存器總數:32768
  • 經紗尺寸:32
  • 每個塊的最大線程數:1024
  • 塊的每個尺寸的最大大小:1024 x 1024 x 64
  • 網格每個尺寸的最大大小:65535 x 65535 x 65535

代碼是:

void addKernel(float *c, float *a, float *b)
{
    int i = threadIdx.x;
    int idx = blockDim.x * blockIdx.x + threadIdx.x;
    c[idx] = a[idx] + b[idx];
}
cudaError_t addWithCuda(float *c, float *a, float *b, size_t size)
{
  float *dev_a = 0;
  float *dev_b = 0;
  float *dev_c = 0;
  cudaError_t cudaStatus;
  blocksNeeded=(size/MAXTHREADS)+1;
  int threadsPerBlock = MAXTHREADS/blocksNeeded+1;
  cudaStatus = cudaMalloc((void**)&dev_c, size * sizeof(float));
  if (cudaStatus != cudaSuccess) {
      fprintf(stderr, "cudaMalloc failed!");
      goto Error;
  }

  cudaStatus = cudaMalloc((void**)&dev_a, size * sizeof(float));
  if (cudaStatus != cudaSuccess) {
      fprintf(stderr, "cudaMalloc failed!");
      goto Error;
  }

  cudaStatus = cudaMalloc((void**)&dev_b, size * sizeof(float));
  if (cudaStatus != cudaSuccess) {
      fprintf(stderr, "cudaMalloc failed!");
      goto Error;
  }

  cudaStatus = cudaMemcpy(dev_a, a, size * sizeof(float), cudaMemcpyHostToDevice);
  if (cudaStatus != cudaSuccess) {
      fprintf(stderr, "cudaMemcpy failed!");
      goto Error;
  }

  cudaStatus = cudaMemcpy(dev_b, b, size * sizeof(float), cudaMemcpyHostToDevice);
  if (cudaStatus != cudaSuccess) {
      fprintf(stderr, "cudaMemcpy failed!");
      goto Error;
  }

  addKernel<<<blocksNeeded, size>>>(dev_c, dev_a, dev_b);
  cudaStatus = cudaDeviceSynchronize();

  if (cudaStatus != cudaSuccess) {
      fprintf(stderr, "cudaDeviceSynchronize returned error code %d after launching addKernel!\n", cudaStatus);
      goto Error;
  }
  cudaStatus = cudaMemcpy(c, dev_c, size * sizeof(float), cudaMemcpyDeviceToHost);
  if (cudaStatus != cudaSuccess) {
      fprintf(stderr, "cudaMemcpy failed!");
      goto Error;
  }

Error:
  cudaFree(dev_c);
  cudaFree(dev_a);
  cudaFree(dev_b);

  return cudaStatus;
}
//edit: added how the matrix are allocated
    float* matrixOne = (float*)malloc(sizeof(float)*file1size);
int matrixIndex = 0;
readFromFile(fd,byte, matrixOneWidth, matrixOneHeight,  matrixOne);

//matrixOneHeight--;
eleCount1 = matrixOneHeight*matrixOneWidth;
matrixOne= (float*)realloc(matrixOne,eleCount1*sizeof(float));
//Edit: Added how the addWithCuda is called.
cudaStatus = addWithCuda(sumMatrix, matrixOne,matrixTwo,eleCount1);
//sumMatrix is created after we know how large the matrices are. 
float sumMatrix[eleCount1];

您沒有在內核中測試計算的界限。 如果總工作量未平均分配到塊的大小,則某些線程將嘗試寫入輸出數組之外的索引。 我建議您還將大小作為參數傳遞給內核,並引入檢查:

__global__ void addKernel(float *c, float *a, float *b, int size)
{
    int i = threadIdx.x;
    int idx = blockDim.x * blockIdx.x + threadIdx.x;
    if(idx < size) c[idx] = a[idx] + b[idx];
}

我看到您正在索引內核中的數組a,b和c,但是您沒有檢查以確保索引在數組范圍內。 因此,您正在寫入您不擁有的內存,從而在隨機位置導致段錯誤。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM