[英]Spark-submit in cluster mode makes the application view unusable?
我使用詹金斯(Jenkins)在--deploy-mode cluster
集--deploy-mode cluster
每小时运行一次spark-submit
。 是否推荐方法? 因为有些事情似乎不起作用。
当我转到spark服务器并按“应用程序”名称时,它将尝试转到该端口(已防火墙)的计算机而不是服务器。 使用--deploy-mode cluster
我希望能够在spark主机上看到此消息,因为spark-submit
在此模式下会立即返回。
另外,我似乎无法打开DAG。 有关系吗?
我使用的完整命令是spark-submit --master spark://mysparkserver:6066 --deploy-mode cluster --class someClass --conf spark.driver.userClassPathFirst=true http://theJarUrl
找到了! 尽管您可以在spark master上启用事件日志记录,但您还需要使用--conf spark.eventLog.enabled=true --conf spark.eventLog.dir=/opt/spark/spark-events
在spark-submit
指定它--conf spark.eventLog.enabled=true --conf spark.eventLog.dir=/opt/spark/spark-events
。 之后,您可以通过单击应用程序名称在spark-master上观看事件。 它还将允许检查完成的应用程序。
尽管如此,DAG可视化仍然对我不起作用。 如果有人对此提出建议,请发表评论。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.