[英]Multiprocess multiple files in a list
我试图读取一个列表,其中包含同步存储在列表中的N个.csv文件。
现在我做以下事情:
导入多进程
流程2 def B()
def read_all_lead_files(folder): for files in glob.glob(folder+"*.csv"): file_list.append(files) def read_even(): file_list[::2] def read_odd(): file_list[1::2] p1 = Process(target=read_even) p1.start() p2 = Process(target=read_odd) p2.start()
有没有更快的方法将列表的分区拆分为Process函数?
我猜这里是根据你的要求,因为最初的问题还不清楚。 由于os.listdir
不保证排序,我假设你的“两个”函数实际上是相同的,你只需要同时对多个文件执行相同的过程。
根据我的经验,最简单的方法是启动Pool
,为每个文件启动一个进程,然后等待。 例如
import multiprocessing
def process(file):
pass # do stuff to a file
p = multiprocessing.Pool()
for f in glob.glob(folder+"*.csv"):
# launch a process for each file (ish).
# The result will be approximately one process per CPU core available.
p.apply_async(process, [f])
p.close()
p.join() # Wait for all child processes to close.
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.