繁体   English   中英

单Windows机器上的多个Spark Worker

[英]Multiple Spark Workers on Single Windows Machine

我正在尝试在Windows上使用Intellij通过Scala自学Spark。 我正在单台计算机上执行此操作,并且我想在单台计算机上启动多个工作程序来模拟集群。 我在此页上读到说

“启动脚本当前不支持Windows。要在Windows上运行Spark集群,请手动启动master和worker。”

我不知道手工启动主人和工人意味着什么。 有人可以帮忙吗? 非常感谢您的帮助/建议。

要手动启动Spark Master,请从%SPARK_HOME%\\ bin下面的命令中运行

spark-class org.apache.spark.deploy.master.Master

上面的命令还将打印主URL,例如spark:// ip:port
可以在localhost:8080上访问主UI

要启动Spark Worker,运行

spark-class org.apache.spark.deploy.worker.Worker spark://ip:port

现在,如果刷新主用户界面,则可以在“工作者”部分下看到新的工作者。
重复该命令以将多个工作器添加到同一主服务器。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM