![](/img/trans.png)
[英]Python web scraper by using Selenium and Multiprocessing
[英]Multiprocessing using selenium and python
我試圖在同一時間多次運行相同的過程。 我現在遇到的問題是該程序一次只運行一個,然后等待該過程完成以啟動新的程序。
我不確定如何讓它們同時運行。
pool = Pool(processes=2)
item1 = pool.apply_async(run_bot(item_keyword, PROXY))
item2 = pool.apply_async(run_bot(item_keyword, PROXY))
pool.close()
pool.join()
如果兩個ur bot的瀏覽器都使用相同的user-data-dir 路徑,則可能會發生
chrome有一個參數:
--user-data-dir=path
對於可能需要此功能的任何人,這就是我解決的方法:
instance_number = len(proxy_list)
for i in range(instance_number):
item_keyword = item_keywords_list[i]
PROXY = proxy_list[i]
instance[i] = multiprocessing.Process(target=run_bot, args=(item_keyword, PROXY, year, month, day, hour, minute))
for i in range(0, instance_number, 1):
instance[i].start()
for i in range(0, instance_number, 1):
instance[i].join()
您不需要
for in in range(instance_number):
我這樣做是為了將來可以更輕松地進行擴展。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.