[英]multi-process MPI vs. multithreaded std::thread performance
我编写了一个简单的测试程序来比较使用 MPI 在多个进程上并行化的性能,或者使用std::thread
在多个线程上进行并行化的性能。 并行化的工作只是写入一个大数组。 我所看到的是多进程 MPI 在相当大的程度上胜过多线程。
测试代码为:
#ifdef USE_MPI
#include <mpi.h>
#else
#include <thread>
#endif
#include <iostream>
#include <vector>
void dowork(int i){
int n = 1000000000;
std::vector<int> foo(n, -1);
}
int main(int argc, char *argv[]){
int npar = 1;
#ifdef USE_MPI
MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_WORLD, &npar);
#else
npar = 8;
if(argc > 1){
npar = atoi(argv[1]);
}
#endif
std::cout << "npar = " << npar << std::endl;
int i;
#ifdef USE_MPI
MPI_Comm_rank(MPI_COMM_WORLD, &i);
dowork(i);
MPI_Finalize();
#else
std::vector<std::thread> threads;
for(i = 0; i < npar; ++i){
threads.emplace_back([i](){
dowork(i);
});
}
for(i = 0; i < npar; ++i){
threads[i].join();
}
#endif
return 0;
}
Makefile 是:
partest_mpi:
mpic++ -O2 -DUSE_MPI partest.cpp -o partest_mpi -lmpi
partest_threads:
c++ -O2 partest.cpp -o partest_threads -lpthread
并且执行的结果是:
$ time ./partest_threads 8
npar = 8
real 0m2.524s
user 0m4.691s
sys 0m9.330s
$ time mpirun -np 8 ./partest_mpi
npar = 8
npar = 8
npar = 8
npar = 8
npar = 8
npar = 8
npar = 8npar = 8
real 0m1.811s
user 0m4.817s
sys 0m9.011s
所以问题是,为什么会发生这种情况,我可以对线程代码做些什么来使其性能更好? 我猜这与 memory 带宽和缓存利用率有关。 我在 Intel i9-9820X 10 核 CPU 上运行它。
TL;DR:确保你有足够的 RAM 和基准指标是准确的。 话虽如此,我无法在我的机器上重现这种差异(即我得到相同的性能结果)。
在大多数平台上,您的代码分配 30 GB(因为sizeof(int)=4
并且每个进程/线程执行向量的分配,并且项目由向量初始化)。 因此,您应该首先确保至少有足够的 RAM 来执行此操作。 否则,由于内存交换,数据可能会写入(慢得多)存储设备(例如 SSD/HDD)。 在这种极端情况下,基准并不是真正有用的(特别是因为结果可能不稳定)。
假设您有足够的 RAM,您的应用程序主要受page-faults约束。 事实上,在大多数现代主流平台上,操作系统 (OS) 会非常快速地分配虚拟内存,但不会直接将其映射到物理内存。 这个映射过程通常在第一次读取/写入页面(即页面错误)并且已知为慢时完成。 此外,出于安全原因(例如,不泄露其他进程的凭据),大多数操作系统会在第一次写入每个页面时将其归零,从而使页面错误更慢。 在某些系统上,它可能无法很好地扩展(尽管在具有 Windows/Linux/Mac 的典型台式机上应该没问题)。 这部分时间报告为系统时间。
其余时间主要用于填充 RAM 中的向量所需的时间。 这部分几乎无法在许多平台上扩展:通常 2-3 个内核显然足以使台式机的 RAM 带宽饱和。
话虽如此,在我的机器上,我无法在分配的内存减少 10 倍的情况下重现相同的结果(因为我没有 30 GB 的 RAM)。 同样适用于减少 4 倍的内存。 实际上,我的带有 i7-9600KF 的 Linux 机器上的 MPI 版本要慢得多。 请注意,结果相对稳定且可重现(无论排序和运行次数如何):
time ./partest_threads 6 > /dev/null
real 0m0,188s
user 0m0,204s
sys 0m0,859s
time mpirun -np 6 ./partest_mpi > /dev/null
real 0m0,567s
user 0m0,365s
sys 0m0,991s
MPI 版本的糟糕结果来自我机器上MPI 运行时的缓慢初始化,因为一个不执行任何操作的程序大约需要 350 毫秒才能初始化。 这实际上表明行为是平台相关的。 至少,它表明不应该用time
来衡量两个应用程序的性能。 人们应该改用单调的 C++ 时钟。
一旦代码被修复为使用准确的计时方法(使用 C++ 时钟和 MPI 屏障),我会在两个实现之间获得非常接近的性能结果(10 次运行,排序计时):
pthreads:
Time: 0.182812 s
Time: 0.186766 s
Time: 0.187641 s
Time: 0.18785 s
Time: 0.18797 s
Time: 0.188256 s
Time: 0.18879 s
Time: 0.189314 s
Time: 0.189438 s
Time: 0.189501 s
Median time: 0.188 s
mpirun:
Time: 0.185664 s
Time: 0.185946 s
Time: 0.187384 s
Time: 0.187696 s
Time: 0.188034 s
Time: 0.188178 s
Time: 0.188201 s
Time: 0.188396 s
Time: 0.188607 s
Time: 0.189208 s
Median time: 0.188 s
要对 Linux 进行更深入的分析,您可以使用perf
工具。 内核端分析显示,大部分时间(60-80%)都花在了内核函数clear_page_erms
,它在页面错误(如前所述)期间将页面归零,然后是填充向量值的__memset_avx2_erms
。 其他函数只占用总运行时间的一小部分。 这是 pthread 的示例:
64,24% partest_threads [kernel.kallsyms] [k] clear_page_erms
18,80% partest_threads libc-2.31.so [.] __memset_avx2_erms
2,07% partest_threads [kernel.kallsyms] [k] prep_compound_page
0,86% :8444 [kernel.kallsyms] [k] clear_page_erms
0,82% :8443 [kernel.kallsyms] [k] clear_page_erms
0,74% :8445 [kernel.kallsyms] [k] clear_page_erms
0,73% :8446 [kernel.kallsyms] [k] clear_page_erms
0,70% :8442 [kernel.kallsyms] [k] clear_page_erms
0,69% :8441 [kernel.kallsyms] [k] clear_page_erms
0,68% partest_threads [kernel.kallsyms] [k] kernel_init_free_pages
0,66% partest_threads [kernel.kallsyms] [k] clear_subpage
0,62% partest_threads [kernel.kallsyms] [k] get_page_from_freelist
0,41% partest_threads [kernel.kallsyms] [k] __free_pages_ok
0,37% partest_threads [kernel.kallsyms] [k] _cond_resched
[...]
如果两个实现中的一个存在任何内部安全性能开销, perf
应该能够报告它。 如果您在 Windows 上运行,则可以使用其他分析工具,例如 VTune。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.