[英]Asyncio.create_task() and asyncio.gather() running in sequence
[英]python asyncio.gather vs asyncio.as_completed when IO task followed by CPU-bound task
我的程序工作流程如下:1. IO-bound(网页获取)-> 2. cpu-bound(处理信息)-> 3. IO-bound(将结果写入数据库)。
我目前正在使用 aiohttp 来获取 web 页面。 我目前正在使用 asyncio.as_completed 来收集步骤 1 的任务并将它们传递给步骤 2 完成。 我担心的是,这可能会通过消耗 cpu 资源并阻塞步骤 2 中的程序流来干扰步骤 1 任务的完成。
我尝试使用 ProcessPoolExecutor 将第 2 步任务外包给其他进程,但第 2 步任务使用不可腌制的数据结构和函数。 我已经尝试过 ThreadPoolExecutor,虽然它有效(例如它没有崩溃),但我的理解是,对 CPU 密集型任务这样做会适得其反。
因为工作流有一个中间 cpu-bound 任务,使用 asyncio.gather(而不是 asyncio.as_completed)在进入步骤 2 之前完成所有步骤 1 流程会更有效吗?
示例 asyncio.as_completed 代码:
async with ClientSession() as session:
tasks = {self.fetch(session, url) for url in self.urls}
for task in asyncio.as_completed(tasks):
raw_data = await asyncio.shield(task)
data = self.extract_data(*raw_data)
await self.store_data(data)
示例 asyncio.gather 代码:
async with ClientSession() as session:
tasks = {self.fetch(session, url) for url in self.urls}
results = await asyncio.gather(*tasks)
for result in results:
data = self.extract_data(*result)
await self.store_data(data)
有限样本的初步测试显示 as_completed 比 collect 稍微高效一些:~2.98s (as_completed) vs ~3.15s (gather)。 但是是否存在一个 asyncio 概念问题会偏向于一种解决方案而不是另一种解决方案?
“我尝试过 ThreadPoolExecutor,[...] 我的理解是,对 CPU 密集型任务这样做会适得其反。” - 从某种意义上说,你不会有两个这样的问题,使用多个 CPU 内核并行运行 Python 代码 - 但除此之外,它会释放你的 asyncio 循环以继续工作,如果只是在一个任务中咀嚼代码一次。
如果您不能将事情腌制到子进程,那么在 ThreadPoolExecutor 中运行 CPU 绑定任务就足够了。
否则,只需在 cpu 代码中添加一些await asyncio.sleep(0)
(在循环内)并将它们作为协程正常运行:这足以让 cpu 绑定任务不锁定 asyncio 循环。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.