[英]MVAPICH deadlocks on CUDA memory while kernel is running
我尝试让 MPI-CUDA 程序与 MVAPICH CUDA8 一起工作。 我之前确实使用 openMPI 成功运行了该程序,但我想测试是否使用 MVAPICH 获得了更好的性能。 不幸的是,如果在使用 MVAPICH 时同时运行 CUDA 内核,程序就会卡在 MPI_Isend 中。
我下载了 MVAPICH2-2.2 并使用配置标志从源代码构建它
--enable-cuda --disable-mcast
在 cuda 内存上启用 MPI 调用。 mcast 被禁用,因为没有标志我无法编译它。
在运行应用程序之前,我使用了以下标志:
export MV2_USE_CUDA=1
export MV2_GPUDIRECT_GDRCOPY_LIB=/path/to/gdrcopy/
export MV2_USE_GPUDIRECT=1
MPI_Isend/recv 在没有 CUDA 内核运行的同时工作正常。 但是在我的程序中,重要的是在内核运行时 MPI 向 GPU 内存发送和接收数据。
对于这种行为,我想出了两个可能的原因。 首先,MVAPICH 出于某种原因尝试运行他自己的 CUDA 内核以从 GPU 内存发送数据,但由于 GPU 已被充分利用,因此该内核没有得到调度。 第二种可能性:MVAPICH 在某处(不是异步版本)使用 cudaMemcpy,它会阻塞直到内核完成执行。
有人可以证实我的假设之一吗? MVAPICH 中是否有一个标志可以解决我不知道的这个问题?
编辑:
这是说明我的问题的“简单”代码。 使用 openMPI 执行代码时,它会正确执行和终止。 使用 mvapich2,它会在标记的 MPI_Send 函数处死锁。
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
#include <mpi.h>
__global__ void kernel(double * buffer, int rank)
{
volatile double *buf = buffer;
if(rank == 0){
while(buf[0] != 3){}
} else {
while(buf[0] != 2){}
}
}
int main(int argc, char **argv)
{
double host_buffer[1];
MPI_Init(&argc, &argv);
int world_size, world_rank;
MPI_Comm_size(MPI_COMM_WORLD, &world_size);
MPI_Comm_rank(MPI_COMM_WORLD, &world_rank);
printf("Im rank %d\n", world_rank);
cudaSetDevice(world_rank);
double * dev_buffer;
cudaError_t err = cudaMalloc(&dev_buffer, sizeof(double));
if(world_rank == 0){
host_buffer[0] = 1;
cudaError_t err = cudaMemcpy(dev_buffer, host_buffer, sizeof(double), cudaMemcpyHostToDevice);
MPI_Send(dev_buffer, 1, MPI_DOUBLE, 1, 0, MPI_COMM_WORLD);
printf("[%d]First send does not deadlock\n", world_rank);
}else {
MPI_Recv(dev_buffer, 1, MPI_DOUBLE, 0, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
printf("[%d]Received first message\n", world_rank);
}
cudaStream_t stream, kernel_stream;
cudaStreamCreate(&stream);
cudaStreamCreate(&kernel_stream);
printf("[%d]launching kernel\n", world_rank);
kernel<<<208, 128, 0, kernel_stream>>>(dev_buffer, world_rank);
if(world_rank == 0){
//rank 0
host_buffer[0] = 2;
cudaMemcpyAsync(
dev_buffer, host_buffer, sizeof(double),
cudaMemcpyHostToDevice,
stream
);
cudaStreamSynchronize(stream);
printf("[%d]Send message\n", world_rank);
MPI_Send(dev_buffer, 1, MPI_DOUBLE, 1, 0, MPI_COMM_WORLD); //mvapich2 deadlocks here
printf("[%d]Message sent\n", world_rank);
printf("[%d]Receive message\n", world_rank);
MPI_Recv(dev_buffer, 1, MPI_DOUBLE, 1, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
printf("[%d]Message received\n", world_rank);
cudaStreamSynchronize(kernel_stream);
printf("[%d]kernel finished\n", world_rank);
} else {
//rank 1
printf("[%d]Receive message\n", world_rank);
MPI_Recv(dev_buffer, 1, MPI_DOUBLE, 0, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
printf("[%d]Message received\n", world_rank);
cudaStreamSynchronize(kernel_stream);
printf("[%d]kernel finished\n", world_rank);
host_buffer[0] = 3;
cudaMemcpyAsync(
dev_buffer, host_buffer, sizeof(double),
cudaMemcpyHostToDevice,
stream
);
cudaStreamSynchronize(stream);
printf("[%d]Send message\n", world_rank);
MPI_Send(dev_buffer, 1, MPI_DOUBLE, 0, 0, MPI_COMM_WORLD);
printf("[%d]Message sent\n", world_rank);
}
printf("[%d]Stopped execution\n", world_rank);
MPI_Finalize();
}
我回到这个问题并使用 gdb 调试代码。
显然,问题在于 src/mpid/ch3/channels/mrail/src/gen2/ibv_send.c 中实现的 MVAPICH2 的 Eager 协议。 Eager 协议使用没有 async 的 cuda_memcpy,它会阻塞直到内核执行完成。
通过将 MV2_IBA_EAGER_THRESHOLD 1 传递给 mpirun,问题中发布的程序运行良好。 这可以防止 MPI 使用 Eager 协议,而是使用集合点协议。
修补 MVAPICH2 源代码也解决了这个问题。 我将文件中的同步 cudaMemcpys 更改为 cudaMemcpyAsync
只有 MPI_Isend/MPI_Irecv 需要更改第三个文件。 其他 MPI 函数可能需要一些额外的代码更改。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.