[英]Using inline assembly to speed up Matrix multiplication
我一直试图通过寄存器阻塞,SSE2矢量化和L1缓存阻塞来加速矩阵 - 矩阵乘法C < - C + alpha * A * B(注意我已经特别选择了转置设置op(A)= A和op( B)= B)。 经过一些努力,我的书面代码在单线程模式下仍比GotoBLAS慢约50% 。
下面是我在L1缓存中的“内核”方矩阵 - 矩阵乘法的代码,在Goto的工作中称为“DGEBB”(一般块 - 块操作),它将两个NB * NB平方矩阵相乘(NB限制为倍数的倍数) 4)。 我已经在GCC 4.8下检查了它的汇编输出,意识到编译器在调度展开的最内层循环方面做得不好:kk-loop。 我希望编译器优化寄存器分配以实现寄存器重用,并为流水线调度计算交错乘法,加法和存储操作; 但是,编译器无法执行此操作。 出于这个原因,我想用一些内联汇编替换最里面的循环 。
我是x86程序集的新手。 虽然已经读了几个小时的GCC 扩展的asm ,但我仍然不确定如何正确地做到这一点。 我附上了一个我能写得最好的愚蠢版本,但我知道这是错的。 此版本是从编译器的kk-loop原始程序集输出中修改的。 我知道如何使用“movl”,“movapd”等分配寄存器,我按照我喜欢的顺序重新安排了计算。 但它还没有奏效。 1)在我看来,寄存器%eax,%ebx,%ecx在组件的内部和外部使用都是令人讨厌的。 2)此外,我传递输入和输出操作数的方式不起作用。 3)最后,我真的想要一个可以内联整个kk循环的版本。 谢谢,如果有人可以帮助我!
DGEBB的C代码(称为DGEBB_SSE2_x86,因为我的笔记本电脑是32位x86机器,支持SSE2 - SSE4.1):
#include <stdint.h> /* type define of "uintptr_t" */
#include <emmintrin.h> /* double precision computation support since SSE2 */
#include <R.h> /* use R's error handling error() */
void DGEBB_SSE2_x86 (int *NB, double *ALPHA, double *A, double *B, double *C) {
/* check "nb", must be a multiple of 4 */
int TWO=2, FOUR=4, nb=*NB; if (nb%FOUR) error("error in DGEBB_SSE2_x86: nb is not a multiple of 4!\n");
/* check memory alignment of A, B, C, 16 Byte alignment is mandatory (as XMM registers are 128-bit in length) */
uintptr_t sixteen_bytes=0xF;
if ((uintptr_t)A & sixteen_bytes) error("error in DGEBB_SSE2_x86: A is not 16 Bytes aligned in memory!");
if ((uintptr_t)B & sixteen_bytes) error("error in DGEBB_SSE2_x86: B is not 16 Bytes aligned in memory!");
if ((uintptr_t)C & sixteen_bytes) error("error in DGEBB_SSE2_x86: C is not 16 Bytes aligned in memory!");
/* define vector variables */
__m128d C1_vec_reg=_mm_setzero_pd(), C2_vec_reg=C1_vec_reg, C3_vec_reg=C1_vec_reg, C4_vec_reg=C1_vec_reg,A1_vec_reg, A2_vec_reg, B_vec_reg, U_vec_reg;
/* define scalar variables */
int jj, kk, ii, nb2=nb+nb, nb_half=nb/TWO;
double *B1_copy, *B1, *C1, *a, *b, *c, *c0;
/* start triple loop nest */
C1=C;B1=B; /* initial column tile of C and B */
jj=nb_half;
while (jj--) {
c=C1;B1_copy=B1;C1+=nb2;B1+=nb2;b=B1_copy;
for (ii=0; ii<nb; ii+=FOUR) {
a=A+ii;b=B1_copy;
kk=nb_half;
while (kk--) {
/* [kernel] amortize pointer arithmetic! */
A1_vec_reg=_mm_load_pd(a); /* [fetch] */
B_vec_reg=_mm_load1_pd(b); /* [fetch] */
U_vec_reg=_mm_mul_pd(A1_vec_reg,B_vec_reg);C1_vec_reg=_mm_add_pd(C1_vec_reg,U_vec_reg); /* [daxpy] */
A2_vec_reg=_mm_load_pd(a+TWO);a+=nb; /* [fetch] */
U_vec_reg=_mm_mul_pd(A2_vec_reg,B_vec_reg);C2_vec_reg=_mm_add_pd(C2_vec_reg,U_vec_reg); /* [daxpy] */
B_vec_reg=_mm_load1_pd(b+nb);b++; /* [fetch] */
U_vec_reg=_mm_mul_pd(A1_vec_reg,B_vec_reg);C3_vec_reg=_mm_add_pd(C3_vec_reg,U_vec_reg); /* [daxpy] */
A1_vec_reg=_mm_load_pd(a); /* [fetch] */
U_vec_reg=_mm_mul_pd(A2_vec_reg,B_vec_reg);C4_vec_reg=_mm_add_pd(C4_vec_reg,U_vec_reg); /* [daxpy]*/
B_vec_reg=_mm_load1_pd(b); /* [fetch] */
U_vec_reg=_mm_mul_pd(A1_vec_reg,B_vec_reg);C1_vec_reg=_mm_add_pd(C1_vec_reg,U_vec_reg); /* [daxpy] */
A2_vec_reg=_mm_load_pd(a+TWO);a+=nb; /* [fetch] */
U_vec_reg=_mm_mul_pd(A2_vec_reg,B_vec_reg);C2_vec_reg=_mm_add_pd(C2_vec_reg,U_vec_reg); /* [daxpy] */
B_vec_reg=_mm_load1_pd(b+nb);b++; /* [fetch] */
U_vec_reg=_mm_mul_pd(A1_vec_reg,B_vec_reg);C3_vec_reg=_mm_add_pd(C3_vec_reg,U_vec_reg); /* [daxpy] */
U_vec_reg=_mm_mul_pd(A2_vec_reg,B_vec_reg);C4_vec_reg=_mm_add_pd(C4_vec_reg,U_vec_reg); /* [daxpy] */
} /* [end of kk-loop] */
/* [write-back] amortize pointer arithmetic! */
A2_vec_reg=_mm_load1_pd(ALPHA);
U_vec_reg=_mm_load_pd(c);c0=c+nb;C1_vec_reg=_mm_mul_pd(C1_vec_reg,A2_vec_reg); /* [fetch] */
A1_vec_reg=U_vec_reg;C1_vec_reg=_mm_add_pd(C1_vec_reg,A1_vec_reg);U_vec_reg=_mm_load_pd(c0); /* [fetch] */
C3_vec_reg=_mm_mul_pd(C3_vec_reg,A2_vec_reg);_mm_store_pd(c,C1_vec_reg);c+=TWO; /* [store] */
A1_vec_reg=U_vec_reg;C3_vec_reg=_mm_add_pd(C3_vec_reg,A1_vec_reg);U_vec_reg=_mm_load_pd(c); /* [fetch] */
C2_vec_reg=_mm_mul_pd(C2_vec_reg,A2_vec_reg);_mm_store_pd(c0,C3_vec_reg);c0+=TWO; /* [store] */
A1_vec_reg=U_vec_reg;C2_vec_reg=_mm_add_pd(C2_vec_reg,A1_vec_reg);U_vec_reg=_mm_load_pd(c0); /* [fetch] */
C4_vec_reg=_mm_mul_pd(C4_vec_reg,A2_vec_reg);_mm_store_pd(c,C2_vec_reg);c+=TWO; /* [store] */
C4_vec_reg=_mm_add_pd(C4_vec_reg,U_vec_reg);_mm_store_pd(c0,C4_vec_reg); /* [store] */
C1_vec_reg=_mm_setzero_pd();C3_vec_reg=C1_vec_reg;C2_vec_reg=C1_vec_reg;C4_vec_reg=C1_vec_reg;
} /* [end of ii-loop] */
} /* [end of jj-loop] */
}
我的kk-loop内联汇编的愚蠢版本在这里:
while (kk--) {
asm("movapd %0, %%xmm3\n\t" /* C1_vec_reg -> xmm3 */
"movapd %1, %%xmm1\n\t" /* C2_vec_reg -> xmm1 */
"movapd %2, %%xmm2\n\t" /* C3_vec_reg -> xmm2 */
"movapd %3, %%xmm0\n\t" /* C4_vec_reg -> xmm0 */
"movl %4, %%eax\n\t" /* pointer a -> %eax */
"movl %5, %%edx\n\t" /* pointer b -> %edx */
"movl %6, %%ecx\n\t" /* block size nb -> %ecx */
"movapd (%%eax), %%xmm5\n\t" /* A1_vec_reg -> xmm5 */
"movsd (%%edx), %%xmm4\n\t" /* B_vec_reg -> xmm4 */
"unpcklpd %%xmm4, %%xmm4\n\t"
"movapd %%xmm5, %%xmm6\n\t" /* xmm5 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm3\n\t" /* xmm3 += xmm6 */
"movapd 16(%%eax), %%xmm7\n\t" /* A2_vec_reg -> xmm7 */
"movapd %%xmm7, %%xmm6\n\t" /* xmm7 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm1\n\t" /* xmm1 += xmm6 */
"movsd (%%edx,%%ecx), %%xmm4\n\t" /* B_vec_reg -> xmm4 */
"addl $8, %%edx\n\t" /* b++ */
"movsd (%%edx), %%xmm4\n\t" /* B_vec_reg -> xmm4 */
"unpcklpd %%xmm4, %%xmm4\n\t"
"movapd %%xmm5, %%xmm6\n\t" /* xmm5 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm2\n\t" /* xmm2 += xmm6 */
"addl %%ecx, %%eax\n\t" /* a+=nb */
"movapd (%%eax), %%xmm5\n\t" /* A1_vec_reg -> xmm5 */
"movapd %%xmm7, %%xmm6\n\t" /* xmm7 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm0\n\t" /* xmm0 += xmm6 */
"movsd (%%edx), %%xmm4\n\t" /* B_vec_reg -> xmm4 */
"unpcklpd %%xmm4, %%xmm4\n\t"
"movapd %%xmm5, %%xmm6\n\t" /* xmm5 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm3\n\t" /* xmm3 += xmm6 */
"movapd 16(%%eax), %%xmm7\n\t" /* A2_vec_reg -> xmm7 */
"movapd %%xmm7, %%xmm6\n\t" /* xmm7 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm1\n\t" /* xmm1 += xmm6 */
"movsd (%%edx,%%ecx), %%xmm4\n\t" /* B_vec_reg -> xmm4 */
"addl $8, %%edx\n\t" /* b++ */
"movsd (%%edx), %%xmm4\n\t" /* B_vec_reg -> xmm4 */
"unpcklpd %%xmm4, %%xmm4\n\t"
"movapd %%xmm5, %%xmm6\n\t" /* xmm5 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm2\n\t" /* xmm2 += xmm6 */
"movapd %%xmm7, %%xmm6\n\t" /* xmm7 -> xmm6 */
"mulpd %%xmm4, %%xmm6\n\t" /* xmm6 *= xmm4 */
"addpd %%xmm6, %%xmm0\n\t" /* xmm0 += xmm6 */
"addl %%ecx, %%eax"
: "+x"(C1_vec_reg), "+x"(C2_vec_reg), "+x"(C3_vec_reg), "+x"(C4_vec_reg), "+m"(a), "+m"(b)
: "x"(C1_vec_reg), "x"(C2_vec_reg), "x"(C3_vec_reg), "x"(C4_vec_reg), "4"(a), "5"(b), "rm"(nb));
}
以下是代码的一些解释:
Unrolling out loops to expose a micro "dger" kernel for register resue:
(c11 c12) += (a1) * (b1 b2)
(c21 c22) (a2)
(c31 c32) (a3)
(c41 c42) (a4)
This can be implemented as 4 vectorized "daxpy":
(c11) += (a1) * (b1) , (c31) += (a3) * (b1) , (c12) += (a1) * (b2) , (c32) += (a3) * (b2) .
(c21) (a2) (b1) (c41) (a4) (b1) (c22) (a2) (b2) (c42) (a4) (b2)
4 micor C-vectors are held constantly in XMM registers named C1_vec_reg, C2_vec_reg, C3_vec_reg, C4_vec_reg.
2 micro A-vectors are loaded into XMM registers named A1_vec_reg, A2_vec_reg.
2 micro B-vectors can reuse a single XMM register named B_vec_reg.
1 additional XMM register, U_vec_reg, will store temporary values.
The above scheduling exploits all 8 XMM registers on x84 architectures with SIMD unit, and each XMM is used twice after loaded.
PS:我是stats组的R用户。 头文件允许使用R的错误处理功能error()。 这将终止C程序而不是整个R程序。 如果不使用R,请删除此行以及代码中的相应行。
回到HPC Cholesky分解程序开发的早期阶段,这是一个老问题。 C代码已过时,程序集天真不正确。 后来的帖子跟随这个帖子。
(C中的内联汇编)汇编程序消息:错误:未知伪操作:提供内联汇编的正确实现。
如何让GCC完全展开这个循环(即剥离这个循环)? 提供更好的C代码。
在编写GCC内联汇编时,需要注意可能的状态标志更改。 (C中的内联汇编)有趣的内存分段错误对我来说是一个教训。
矢量化是HPC的关键。 SSE指令MOVSD(扩展:x86上的浮点标量和向量运算,x86-64)包含对英特尔SSE2 / 3的一些讨论,而FMA指令_mm256_fmadd_pd():“132”,“231”和“213”? 有关于英特尔AVX的FMA指令的一些信息。
当然所有这些只与计算内核有关。 还有很多其他工作与最终高性能Cholesky分解例程的所有内容相关。 我的例程的第一个版本的性能是为什么我的CPU不能在HPC中保持最佳性能 。
目前我正在升级内核例程以获得更高的性能。 可能会在这个帖子上有更多的帖子。 感谢堆栈溢出社区,特别是Z boson , Peter Cordes和名义上的动物,以回答我的各种问题。 我学到了很多东西,在这个过程中感到很开心。 [当然,与此同时,我学会了成为更好的SO成员。]
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.