[英]Python Multiprocessing Worker/Queue
我有一個python函數,總共運行12次。 我目前設置這個設置來使用多處理庫中的池來並行運行所有這些池。 通常我一次運行6,因為該功能是CPU密集型的並且並行運行12經常導致程序崩潰。 當我們一次做6時,第二組6將不會開始,直到所有前6個過程完成。 理想情況下,我們希望另一個(例如第7個)在第一批6的一個完成后立即啟動 - 這樣6個一次運行,而有更多的啟動。 現在代碼看起來像這樣(它將被調用兩次,將前6個元素傳遞到一個列表中,然后將第二個6傳遞給另一個列表:
from multiprocessing import Pool
def start_pool(project_list):
pool = Pool(processes=6)
pool.map(run_assignments_parallel,project_list[0:6])
所以我一直在嘗試實現一個worker / queue解決方案並遇到了一些問題。 我有一個看起來像這樣的worker函數:
def worker(work_queue, done_queue):
try:
for proj in iter(work_queue.get, 'STOP'):
print proj
run_assignments_parallel(proj)
done_queue.put('finished ' + proj )
except Exception, e:
done_queue.put("%s failed on %s with: %s" % (current_process().name, proj, e.message))
return True
調用worker函數的代碼如下:
workers = 6
work_queue = Queue()
done_queue = Queue()
processes = []
for project in project_list:
print project
work_queue.put(project)
for w in xrange(workers):
p = Process(target=worker, args=(work_queue, done_queue))
p.start()
processes.append(p)
work_queue.put('STOP')
for p in processes:
p.join()
done_queue.put('STOP')
for status in iter(done_queue.get, 'STOP'):
print status
project_list只是需要在函數“run_assignments_parallel”中運行的12個項目的路徑列表。
現在編寫這個函數的方法是,對於同一個進程(項目),函數被多次調用,我真的不知道發生了什么。 這段代碼基於我找到的一個例子,我很確定循環結構搞砸了。 任何幫助都會很棒,我對此事無知感到抱歉。 謝謝!
理想情況下,我們希望另一個(例如第7個)在第一批6的一個完成后立即啟動 - 這樣6個一次運行,而有更多的啟動。
您需要更改的是傳遞所有12個輸入參數而不是6:
from multiprocessing import Pool
pool = Pool(processes=6) # run no more than 6 at a time
pool.map(run_assignments_parallel, project_list) # pass full list (12 items)
您可以使用MPipe模塊。
創建一個6工作的單階段管道,並將所有項目作為任務提供 。 然后只需讀取結果 (在您的情況下,狀態)。
from mpipe import Pipeline, OrderedStage
...
pipe = Pipeline(OrderedStage(run_assignments_parallel), 6)
for project in project_list:
pipe.put(project)
pipe.put(None) # Signal end of input.
for status in pipe.results():
print(status)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.