[英]What is the difference between “spark-shell” and “spark-shell --master=local”?
如果我使用以下兩個命令打開Spark,有人可以幫助我理解有什么區別嗎?
spark-shell
spark-shell --master=local
當您啟動不帶--master
選項的spark shell時,將利用本地計算機的所有內核,如您在日志中看到的,它以以下消息開頭
Spark context available as 'sc' (master = local[*], app id = local-1519264959885).
Spark session available as 'spark'.
但是,當您使用--master local
選項啟動時 , 它將開始僅利用本地計算機的一個內核,如您在日志中所見
Spark context available as 'sc' (master = local, app id = local-1519265031949).
Spark session available as 'spark'.
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.