[英]What is the difference between “spark-shell” and “spark-shell --master=local”?
如果我使用以下两个命令打开Spark,有人可以帮助我理解有什么区别吗?
spark-shell
spark-shell --master=local
当您启动不带--master
选项的spark shell时,将利用本地计算机的所有内核,如您在日志中看到的,它以以下消息开头
Spark context available as 'sc' (master = local[*], app id = local-1519264959885).
Spark session available as 'spark'.
但是,当您使用--master local
选项启动时 , 它将开始仅利用本地计算机的一个内核,如您在日志中所见
Spark context available as 'sc' (master = local, app id = local-1519265031949).
Spark session available as 'spark'.
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.