[英]Setting an IP address as spark.driver.host instead of hostname in Spark?
我在声明 spark.driver.host 设置时遇到问题。 假设我有一个带有 HOSTNAME 和绑定地址192.168.1.1
的主机(它的 linux,windows 根本没有这个问题)。
如果我设置属性spark.driver.hostname = 192.168.1.1
工作人员将响应 HOSTNAME,这真的很糟糕,因为他们没有使用此主机名的 DNS。
正如此故障排除页面所说:
如果 SPARK_LOCAL_IP 设置为 IP 地址,它将被解析为主机名。
这里有一个问题:如何不将此 IP 地址设置为主机名?
你可以在你的spark环境中设置SPARK_LOCAL_HOSTNAME=ip地址来解决这个问题。
主机名 -f 将您的 FQDN 添加到 /etc/hosts 文件中
[您的 IP 地址] [您的主机名] 在火花节点上
或将您的主机名添加到您的 spark 节点使用的 dns
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.