![](/img/trans.png)
[英]How to decide on the number of partitions required for input data size and cluster resources?
[英]How to allocate physical resources for a big data cluster?
我有三台服务器,我想在这些服务器上部署Spark Standalone Cluster或Spark on Yarn Cluster。 现在我有一些关于如何为大数据集群分配物理资源的问题。 例如,我想知道我是否可以在同一节点上部署Spark Master Process和Spark Worker Process。 为什么?
服务器细节:
CPU Cores: 24
Memory: 128GB
我需要你的帮助。 谢谢。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.