[英]Gunicorn shared memory between multiprocessing processes and workers
我有一个使用字典作为多个进程之间的共享内存的python应用程序:
from multiprocessing import Manager
manager = Manager()
shared_dict = manager.dict()
REST API是使用Flask实现的。 使用pywsgi或仅使用Flask.run初始化Flask服务器时,一切工作正常。 我决定放进混合粗粮。 现在,当我从任何一个工作程序访问此共享字典时(即使只有一个正在运行),我也会收到错误消息:
message = connection.recv_bytes(256)#拒绝大消息
IOError:[Errno 35]资源暂时不可用
我一直在研究mmap,多处理侦听器和客户端,它们看起来都很多开销。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.