[英]Multiprocess vs Multithread Python time taken
我有2个简单的函数(在一定范围内循环),可以不依赖任何关系独立运行。.我正在尝试同时使用Python多处理模块和多线程模块来运行这2个函数。
当我比较输出时,我看到多进程应用程序比多线程模块多1秒钟。
我读多线程因为全局解释器锁而没那么高效......
基于以上陈述 -
1.如果两个进程之间没有依赖性,最好使用多重处理吗?
2.如何计算可以在我的机器上运行以最大化效率的进程/线程数。
3.另外,有没有一种方法可以通过使用多线程来计算程序的效率...
多线程模块......
from multiprocessing import Process
import thread
import platform
import os
import time
import threading
class Thread1(threading.Thread):
def __init__(self,threadindicator):
threading.Thread.__init__(self)
self.threadind = threadindicator
def run(self):
starttime = time.time()
if self.threadind == 'A':
process1()
else:
process2()
endtime = time.time()
print 'Thread 1 complete : Time Taken = ', endtime - starttime
def process1():
starttime = time.time()
for i in range(100000):
for j in range(10000):
pass
endtime = time.time()
def process2():
for i in range(1000):
for j in range(1000):
pass
def main():
print 'Main Thread'
starttime = time.time()
thread1 = Thread1('A')
thread2 = Thread1('B')
thread1.start()
thread2.start()
threads = []
threads.append(thread1)
threads.append(thread2)
for t in threads:
t.join()
endtime = time.time()
print 'Main Thread Complete , Total Time Taken = ', endtime - starttime
if __name__ == '__main__':
main()
多进程模块
from multiprocessing import Process
import platform
import os
import time
def process1():
# print 'process_1 processor =',platform.processor()
starttime = time.time()
for i in range(100000):
for j in range(10000):
pass
endtime = time.time()
print 'Process 1 complete : Time Taken = ', endtime - starttime
def process2():
# print 'process_2 processor =',platform.processor()
starttime = time.time()
for i in range(1000):
for j in range(1000):
pass
endtime = time.time()
print 'Process 2 complete : Time Taken = ', endtime - starttime
def main():
print 'Main Process start'
starttime = time.time()
processlist = []
p1 = Process(target=process1)
p1.start()
processlist.append(p1)
p2 = Process(target = process2)
p2.start()
processlist.append(p2)
for i in processlist:
i.join()
endtime = time.time()
print 'Main Process Complete - Total time taken = ', endtime - starttime
if __name__ == '__main__':
main()
如果您的计算机上有两个可用的CPU,则有两个不需要通信的进程,并且您想同时使用这两个进程来提高程序速度,则应该使用多处理模块,而不是线程模块。
全局解释器锁(GIL)阻止Python解释器通过使用多个线程来有效利用多个CPU,因为一次只能有一个线程执行Python字节码。 因此,多线程不会改善应用程序的整体运行时间,除非您有长时间阻塞的调用(例如,等待IO)或释放GIL(例如, numpy
会执行一些昂贵的调用)。 但是,多处理库创建了单独的子进程,因此创建了解释器的多个副本,因此可以有效利用多个CPU。
但是,在您给出的示例中,您有一个过程非常快地完成(在我的计算机上不到0.1秒),而一个过程大约需要18秒才能完成。 确切的数字可能会因您的硬件而异。 在这种情况下,几乎所有工作都是在一个进程中进行的,因此无论您实际上只使用一个CPU。 在这种情况下,产生进程与线程的开销增加,可能导致基于进程的版本变慢。
如果两个进程都执行18秒的嵌套循环,则应该看到多处理代码运行得更快(假设您的计算机实际上有多个CPU)。 在我的机器上,我看到多处理代码在大约18.5秒内完成,多线程代码在71.5秒内完成。 我不确定为什么多线程处理花费了超过36秒的时间,但是我猜是GIL引起了某种线程争用问题,这减慢了两个线程的执行速度。
关于第二个问题,假设系统上没有其他负载,则应使用与系统上CPU数量相等的进程数。 您可以通过在Linux系统上执行lscpu
,在Mac系统上执行sysctl hw.ncpu
或在Windows上的“运行”对话框中运行dxdiag
来发现这一点(可能还有其他方法,但这是我一直这样做的方式)。
对于第三个问题,最简单的方法是从多余的进程中获得多少效率,就是像time.time()
一样使用time.time()
或Linux中的time
实用工具来测量程序的总运行time
。例如time python myprog.py
)。 理想的加速应该等于您正在使用的进程数,因此,假设您从额外的进程中获得最大收益,那么在4个CPU上运行的4进程程序最多应比具有1个进程的同一程序快4倍。 如果其他流程对您的帮助不大,则将少于4倍。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.