[英]Why gcc's output much slower than Visual Studio's (for this code)?
当我使用gcc通过定期更新的Ubuntu 16.04 64bit编译以下代码时
gcc source.c -O3 --fast-math
可执行文件大约需要45秒的CPU时间才能运行。 但是,在同一台计算机上以及在Windows 7 64位版本中,在发布模式下使用Visual Studio 2012,运行CPU时间不到10秒。 造成这种差异的主要原因是什么? 我没有使用足够的gcc优化选项吗? Visual Studio的编译器更好吗? 或者是其他东西?
#include <stdio.h>
#include <math.h>
#include <time.h>
#define Nx 1000
int main()
{
double d = 0.015e-2; // meter
double V0 = 400; // volt
double De = 1800e-4; // m^2 per sec
double mu_e = 2.9e1 / 760; // m^2 per volt sec
double n0 = 1e19; // per m^3
double e_eps = 1.602e-19 / 8.854e-12;
double ne[Nx], je[Nx], E[Nx];
double dx = d / (Nx - 1);
double dt = 1e-14; // s
const int Nt = 500000;
int i, k;
double sum;
FILE *fp_ne, *fp_E;
double alpha, exp_alpha, R;
int ESign = -1;
clock_t start_t, end_t;
start_t = clock();
// initialization
for (i = 1; i < Nx; i++)
ne[i] = n0;
ne[0] = 1e-4 * n0;
for (i = 0; i < Nx; i++)
E[i] = -V0 / d;
// time loop
for (k = 0; k < Nt; k++)
{
if (k%1000==0) printf("k = %d\n", k);
for (i = 0; i < (Nx-1); i++)
{
alpha = mu_e*dx*E[i]/De;
exp_alpha = exp(alpha);
R = (exp_alpha-1)/alpha;
je[i] = (De/(dx*R))*(ne[i]-exp_alpha*ne[i+1]);
}
for (i = 1; i < (Nx - 1); i++)
ne[i] += -dt/dx*(je[i] - je[i-1]);
ne[Nx - 1] = ne[Nx - 2];
sum = 0;
for (i = 0; i < (Nx - 1); i++)
sum += dx*je[i];
for (i = 0; i < (Nx - 1); i++)
{
E[i] += -dt*e_eps*(sum / d - je[i]);
if (E[i]>=0) ESign=+1;
}
if (ESign==1) break;
}
// output
printf("time=%e\n",k*dt);
fp_ne = fopen("ne.txt", "w");
fp_E = fopen("E.txt", "w");
fprintf(fp_ne, "# x (cm)\tne(per cm^3)\n");
fprintf(fp_E, "# x (cm)\tE(V/cm)\n");
for (i = 0; i < Nx; i++)
fprintf(fp_ne, "%f\t%e\n", i*dx*100,ne[i]/1e6);
for (i = 0; i < Nx-1; i++)
fprintf(fp_E, "%f\t%e\n", i*dx*100, fabs(E[i])/1e2);
fclose(fp_ne);
fclose(fp_E);
end_t = clock();
printf("CPU time = %f\n", (double)(end_t - start_t) / CLOCKS_PER_SEC);
}
我要做的第一件事是注释掉循环中的I / O。
//if (k%1000==0) printf("k = %d\n", k);
仅通过该更改,我获得了以下计时。 最后的fprintf
调用确实会显着影响时序,但不会影响它们的相对差异,因此,我不再赘述所有这些时序。
我在Arch Linux第一代Core i5上获得了这些计时信息(全部使用标准-O2
编译):
GCC 7.1:
CPU time = 23.459520
铛4.0.1:
CPU time = 22.936315
英特尔17.0.4:
CPU time = 7.830828
在同一台计算机上Windows 10的Qemu / libvirt虚拟机上,我得到以下计时:
MinGW-w64 GCC 6.3:
CPU time = 76.122000
VS 2015.3:
CPU time = 13.497000
VS 2017:
CPU time = 49.306000
在WINE上(本机Linux,但有Win32 API仿真,仍应与本机Linux代码执行相当)
MinGW-w64 GCC 6.3:
CPU time = 56.074000
VS 2015.3:
CPU time = 12.048000
VS 2017:
CPU time = 34.541000
长话短说:看来这些输出针对此特定问题的最佳代码:
查看装配体将是深入了解此问题的唯一方法,但正确地进行分析超出了我的范围。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.