簡體   English   中英

單Windows機器上的多個Spark Worker

[英]Multiple Spark Workers on Single Windows Machine

我正在嘗試在Windows上使用Intellij通過Scala自學Spark。 我正在單台計算機上執行此操作,並且我想在單台計算機上啟動多個工作程序來模擬集群。 我在此頁上讀到說

“啟動腳本當前不支持Windows。要在Windows上運行Spark集群,請手動啟動master和worker。”

我不知道手工啟動主人和工人意味着什么。 有人可以幫忙嗎? 非常感謝您的幫助/建議。

要手動啟動Spark Master,請從%SPARK_HOME%\\ bin下面的命令中運行

spark-class org.apache.spark.deploy.master.Master

上面的命令還將打印主URL,例如spark:// ip:port
可以在localhost:8080上訪問主UI

要啟動Spark Worker,運行

spark-class org.apache.spark.deploy.worker.Worker spark://ip:port

現在,如果刷新主用戶界面,則可以在“工作者”部分下看到新的工作者。
重復該命令以將多個工作器添加到同一主服務器。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM