繁体   English   中英

通过Pyspark提交Spark作业时,如何确保在工作人员上使用哪个Python?

[英]When I submit a Spark job through Pyspark, how can I ensure which Python is used on the workers?

是否足以确保在conf / spark-env.sh中设置了PYSPARK_PYTHON以指向这些工作程序上的正确Python,还是还需要执行其他操作?

抱歉,我误会了您的问题...我认为“ PYSPARK_PYTHON”足够好,如果您想再次检查,那么您可以尝试使用ChefPuppet为所有主人和工人部署相同的环境(包括python路径)。


我不确定您使用的是哪个版本,但是最新的1.5.1版本可以使用Web界面来监视您的工作状态

http://<server-url>:18080

http://<driver-node>:4040

您只需在网络浏览器中打开http://:4040即可访问此界面。 如果多个SparkContext在同一主机上运行,​​它们将绑定到以4040(4041、4042等)开头的连续端口。

您可以阅读有关监控和仪器的更多信息

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM