簡體   English   中英

MPI調試細分錯誤

[英]MPI debugging Segmentation fault

我正在嘗試使用奇偶轉置對隨機數數組進行排序,但是在運行代碼時始終出現分段錯誤:

[islb:48966] *** Process received signal ***
[islb:48966] Signal: Segmentation fault (11)
[islb:48966] Signal code: Address not mapped (1)
[islb:48966] Failing at address: 0x28
[islb:48966] [ 0] /lib64/libpthread.so.0(+0xf810)[0x7fc3da4cb810]
[islb:48966] [ 1] /lib64/libc.so.6(memcpy+0xa3)[0x7fc3da1c7cf3]
[islb:48966] [ 2] /usr/local/lib/libopen-pal.so.6(opal_convertor_unpack+0x10b)[0x7fc3d9c372db]
[islb:48966] [ 3] /usr/local/lib/openmpi/mca_pml_ob1.so(mca_pml_ob1_recv_request_progress_match+0x138)[0x7fc3d58507a8]
[islb:48966] [ 4] /usr/local/lib/openmpi/mca_pml_ob1.so(mca_pml_ob1_recv_req_start+0x1b1)[0x7fc3d5850d11]
[islb:48966] [ 5] /usr/local/lib/openmpi/mca_pml_ob1.so(mca_pml_ob1_recv+0x139)[0x7fc3d5849489]
[islb:48966] [ 6] /usr/local/lib/libmpi.so.1(MPI_Recv+0xc0)[0x7fc3da742f40]
[islb:48966] [ 7] oddEven[0x40115a]
[islb:48966] [ 8] /lib64/libc.so.6(__libc_start_main+0xe6)[0x7fc3da161c36]
[islb:48966] [ 9] oddEven[0x400c19]
[islb:48966] *** End of error message ***
--------------------------------------------------------------------------
mpirun noticed that process rank 1 with PID 48966 on node islb exited on signal 11 (Segmentation fault).
--------------------------------------------------------------------------

程序分配數組,是在將其散布到各個進程中時,似乎在發生錯誤時會出現錯誤,因為散布調用之后直接為進程0打印僅打印語句,然后打印錯誤消息。

這是我的代碼:

#include <stdio.h>
#include <math.h>
#include <malloc.h>
#include <time.h>
#include <string.h>
#include "mpi.h"

const int MAX = 10000;
int myid, numprocs;
int i, n, j, k, arrayChunk, minindex;
int A, B;
int temp;

int swap(int *x, int *y) {
  temp = *x;
  *x = *y;
  *y = temp;
  return 0;
}

int main(int argc, char **argv) {
  int* arr = NULL;
  int* value = NULL;
  MPI_Status status;
  //int arr[] = {16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1};

  srand(time(0));
  time_t t1, t2;

  MPI_Init(&argc, &argv);
  MPI_Comm_rank(MPI_COMM_WORLD, &myid);
  MPI_Comm_size(MPI_COMM_WORLD, &numprocs);

  if (myid == 0) {
    printf("Enter the number of elements you would like in the array \n");
    scanf("%d", &n);

    arrayChunk = n/numprocs;
    //printf("cpus: %d, #s per cpu: %d\n", numprocs, arrayChunk);

    //Allocate memory for the array
    arr = malloc(n * sizeof(int));
    value = malloc(n * sizeof(int));

    // Generate an array of size n random numbers and prints them
    printf("Elements in the array: ");
    for (i = 0; i < n; i++) {
      arr[i] = (rand() % 100) + 1;
      printf("%d ", arr[i]);
    }
    printf("\n");
    time(&t1);
  }

  if ((n % numprocs) != 0) {
    if (myid == 0)
      printf("Number of Elements are not divisible by numprocs \n");
    MPI_Finalize();
    return(0);
  }

  // Broadcast the size of each chunk
  MPI_Bcast(&arrayChunk, 1, MPI_INT, 0, MPI_COMM_WORLD);
  MPI_Scatter(&arr, arrayChunk, MPI_INT, &value, arrayChunk, MPI_INT, 0, MPI_COMM_WORLD);
  printf("Processor %d receives %d\n", myid, value[0]);

  for (i = 0; i < numprocs; i++) {
    if (i % 2 == 0) {
      if (myid%2 == 0) {
        MPI_Send(&value[0], arrayChunk, MPI_INT, myid + 1, 0, MPI_COMM_WORLD);
        MPI_Recv(&value[arrayChunk], arrayChunk, MPI_INT, myid + 1, 0, MPI_COMM_WORLD, &status);

        for (j = 0; j < (arrayChunk * 2 - 1); j++) {
          minindex = j;
          for (k = j + 1; k < arrayChunk * 2; k++) {
            if (value[k] < value[minindex]) {
              minindex = k;
            }
          }
          if (minindex > j) {
            swap(&value[j], &value[minindex]);
          }
        }
        //printf("myid %d i: %d, %d\n", myid, i, value[0]);
      } else {
        MPI_Recv(&value[arrayChunk], arrayChunk, MPI_INT, myid - 1, 0, MPI_COMM_WORLD, &status);
        MPI_Send(&value[0], arrayChunk, MPI_INT, myid - 1, 0, MPI_COMM_WORLD);

        for (j = 0; j < (arrayChunk * 2 - 1); j++) {
          minindex = j;
          for (k = j + 1; k < arrayChunk * 2; k++) {
            if (value[k] < value[minindex]) {
              minindex = k;
            }
          }
          if (minindex > j) {
            swap(&value[j], &value[minindex]);
          }
        }

        for (j = 0; j < arrayChunk; j++) {
         swap(&value[j], &value[j + arrayChunk]);
        }
        //printf("myid %d i: %d, %d\n", myid, i, value[0]);
      }
    } else {
      if ((myid%2 == 1) && (myid != (numprocs-1))) {
        MPI_Send(&value[0], arrayChunk, MPI_INT, myid + 1, 0, MPI_COMM_WORLD);
        MPI_Recv(&value[arrayChunk], arrayChunk, MPI_INT, myid + 1, 0, MPI_COMM_WORLD, &status);

        for (j = 0; j < (arrayChunk * 2 - 1); j++) {
          minindex = j;
          for (k = j + 1; k < arrayChunk * 2; k++) {
            if (value[k] < value[minindex]) {
              minindex = k;
            }
          }
          if (minindex > j) {
            swap(&value[j], &value[minindex]);
          }
        }
        //printf("myid %d i: %d, %d\n", myid, i, value[0]);
      } else if (myid != 0 && myid != (numprocs-1)) {
        MPI_Recv(&value[arrayChunk], arrayChunk, MPI_INT, myid - 1, 0, MPI_COMM_WORLD, &status);
        MPI_Send(&value[0], 1, MPI_INT, myid - 1, 0, MPI_COMM_WORLD);

        for (j = 0; j < (arrayChunk * 2 - 1); j++) {
          minindex = j;
          for (k = j + 1; k < arrayChunk * 2; k++) {
            if (value[k] < value[minindex]) {
              minindex = k;
            }
          }
          if (minindex > j) {
            swap(&value[j], &value[minindex]);
          }
        }

        for (j = 0; j < arrayChunk; j++) {
          swap(&value[j], &value[j + arrayChunk]);
        }
        //printf("myid %d i: %d, %d\n", myid, i, value[0]);
      }
    }
  }

  MPI_Gather(&value[0], arrayChunk, MPI_INT, &arr[0], arrayChunk, MPI_INT, 0, MPI_COMM_WORLD);

  if (myid == 0) {
    time(&t2);
    printf("Sorted array: ");
    for (i = 0; i < n; i++) {
      printf("%d ", arr[i]);
    }
    printf("\n");
    printf("Time in sec. %f\n", difftime(t2, t1));
  }

  // Free allocated memory
  if (arr != NULL) {
    free(arr);
    arr = NULL;

    free(value);
    value = NULL;
  }
  MPI_Finalize();
  return 0;
}

我對C不太熟悉,很可能是我未正確使用malloc和/或地址和指針,因此可能很簡單。

對不起,代碼量很大,但是我認為最好提供所有代碼以進行適當的調試。

我將使用調試信息(最有可能是-g編譯標志)來構建程序,嘗試獲取coredump並嘗試使用gdb調試器查找錯誤。 Corefile在進程崩潰時創建,並在崩潰時保存進程內存映像。

如果程序崩潰后未創建coredump文件,則需要弄清楚如何在系統上啟用它。 您可以創建簡單的越野車程序(例如,使用a=x/0;或類似的錯誤)並播放一下。 Coredump可以稱為corePID.corePID.core崩潰的進程數)或類似名稱。 有時使用ulimit設置核心文件大小 tu為無限就足夠了。 還要檢查Linux上的kernel.core_* sysctl。

一旦有了corecump,就可以將其與gdb或類似的調試器( ddd )一起使用:

gdb executable_file core

問題出在您的MPI_Scatter命令中。 您嘗試分散信息並將其存儲在value ,但是如果您查看該代碼上方,則只有等級0為value分配了任何內存。 當任何其他所有等級嘗試將數據存儲到value ,您都會遇到細分錯誤(確實如此)。 而是刪除value = malloc(...); if塊內部插入一行,並將其放在MPI_Bcast之后,作為value = malloc(arrayChunk * sizeof(int)); 我沒有仔細檢查代碼的其余部分,以查看是否在其他地方也有任何問題,但這很可能是最初的段錯誤的原因。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM