![](/img/trans.png)
[英]Apache Spark 2.1.0 - Basic Setup: worker node not connecting with master node
[英]spark worker not connecting to master
我想創建一個 spark 獨立集群。 我可以在同一個節點上運行 master 和 slave,但是不同節點上的 slave 既不顯示 master-URL,也不連接到 master。
我正在運行命令:
start-slave.sh spark://spark-server:7077
其中spark-server
是我主人的主機名。
我可以從worker ping master,但是master的WebUI除了在同一台機器上運行的worker之外沒有顯示任何worker。 客戶端節點正在運行一個工作程序,但它是獨立的,沒有連接到主節點。
請檢查您的主節點上的配置文件“ spark-env.sh ”。 您是否將SPARK_MASTER_HOST變量設置為主節點的 IP 地址? 如果沒有嘗試設置它並重新啟動主站和從站。 例如,如果你的主節點的 IP 是 192.168.0.1,你應該在那里有SPARK_MASTER_HOST=192.168.0.1 。 請注意,您不需要在從屬設備上設置此變量。
1)確保您在節點之間設置了密碼少的SSH
請參閱以下鏈接以在節點之間設置無密碼的 ssh
http://www.tecmint.com/ssh-passwordless-login-using-ssh-keygen-in-5-easy-steps/
2) 在 $SPARK_HOME/conf 目錄下的 slaves 文件中指定 slaves 的 IP 地址
[這是包含conf目錄的spark文件夾]在Master節點上
3) 在 slaves 文件中指定 IP 地址后,啟動 spark 集群
[在主節點上執行 $SPARK_HOME/sbin 目錄中的 start-all.sh 腳本]
希望這可以幫助
如果你能從 Worker ping 主節點意味着它有網絡連接。新的工作節點需要添加到 Spark master 你需要更新一些東西spark-env.sh
請查看官方文檔Spark CLuster launch and update要求的文件。
這是另一個可以幫助您Spark 集群模式的博客博客
這解決了我的問題:
這個想法是當客戶端和服務器在同一台機器上時使用環回地址。
腳步:
這對我有用,希望這對你也有用。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.