![](/img/trans.png)
[英]How to share a user-defined object that occupy large memory and changes frequently in python multiprocess efficiently?
[英]how to share large object in multiprocess?
我想在python中进行大型计算。 我想使用多进程来做到这一点。 问题是我必须从主流程到由主流程创建的流程中传输大型obj(例如大numpy和list或numpy列表)
这是问题所在:1.如果我使用类似results[i] = pool.apply_async(func, args_tuple)
,则会尝试腌制args_tuple,这会花费大量时间2.不支持我自己的类和numpy类3。所有的对象都已经在主流程中准备好了,如果我在生成的流程中得到它,那也会花费时间。
我该如何解决这个问题。如果我曾预料到这一点,也许应该使用Java,我在文档中对其进行了查找,但似乎每个解决方案都是相同的-从主流程到其他流程的参数腌制(花费时间)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.