[英]Why shared-memory approach is not well suited for massive data streams?
根据这篇文章,它说 [强调我的]:现代应用程序通常处理流数据,实际上是处理海量数据流。 共享文件和共享内存方法都不适用于海量数据流。 一种或另一种类型的通道更适合。 因此,第 2 部分介绍了通道和消息队列,同样在 C 中提供了代码示例。
我的问题是为什么共享内存方法不太适合海量数据流。有人可以更详细地解释一下吗?
Shared memory 可以比消息队列更有效地传递任何需要传递的数据。 Shared memory 基本没有通信开销。 但是,共享 memory 是有限制的,因为它只能用于与运行在同一主机上的进程进行通信。
“海量大数据流”通常在服务器集群上进行处理。 在这种情况下,更希望能够根据负载启动新进程,进程跨多个服务器运行。
可以设计一种方案,在本地服务器上使用共享的 memory 并在跨服务器时使用网络,但这会增加复杂性。 此外,如果大部分进程间通信是跨服务器的,共享 memory 的额外复杂性
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.