[英]Python multiprocessing isn't using full cpu cores
我使用正则表达式检查配对的fastq文件的序列记录,并将匹配的序列写入相同的文件。 我使用多处理来加速它,但是当我用20个进程运行它时,20个cpu内核全都使用2%,总时间与在单个内核中运行相同。 这是否意味着正则表达式搜索比将输出写入文件更快,因此进程正在等待? 您能建议我如何改善多重处理吗? 随附的代码。
def mycallback(x):
SeqIO.write(x[0],outfile1,result.form)
SeqIO.write(x[1],outfile2,result.form)
SeqIO.write(x[2],outfile3,result.form)
SeqIO.write(x[3],outfile4,result.form)
def check(x):
if regex.search(r'^.{0,20}(?:'+fp+'){e<='+str(result.mm)+'}',str(x[0].seq),flags=regex.I) and regex.search(r'^.{0,20}(?:'+rp+'){e<='+str(result.mm)+'}',str(x[1].seq),flags=regex.I):
return((x[0],x[1],'',''))
elif regex.search(r'^.{0,20}(?:'+fp+'){e<='+str(result.mm)+'}',str(x[1].seq),flags=regex.I) and regex.search(r'^.{0,20}(?:'+rp+'){e<='+str(result.mm)+'}',str(x[0].seq),flags=regex.I):
return((x[1],x[0],'',''))
else:
return(('','',x[0],x[1]))
p=Pool(int(result.n))
for i in izip(SeqIO.parse(result.fseq,result.form),SeqIO.parse(result.rseq,result.form)):
p.apply_async(check,args=(i,),callback=mycallback)
p.close()
p.join()
Python的pool.apply_async
实现在主进程内部的线程内调用回调函数,并受到GIL的限制。 因此,您正在等待所有文件顺序写入。
回调应该立即完成,因为否则处理结果的线程将被阻塞。
我可以想象您的正则表达式的执行速度比文件写入要快,因此,将回调发送到自己的线程中将使您受益最大(因此可以一次将多个文件写入队列)。 Python线程在等待IO(文件写入)时应释放GIL,并且比进程轻(启动速度更快)。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.