繁体   English   中英

向emr提交本地Spark工作

[英]submit local spark job to emr

我按照亚马逊文档向Spark集群提交Spark作业https://aws.amazon.com/premiumsupport/knowledge-center/emr-submit-spark-job-remote-cluster/

在按照说明进行操作之后,由于无法解决的地址(带有类似的消息)而导致故障排除失败。

错误spark.SparkContext:初始化SparkContext时出错。 java.lang.IllegalArgumentException:java.net.UnknownHostException:ip-172-32-1-231.us-east-2.compute.internal在org.apache.hadoop.security.SecurityUtil.buildTokenService(SecurityUtil.java:374)在org.apache.hadoop.hdfs.NameNodeProxies.createNonHAProxy(NameNodeProxies.java:310)在org.apache.hadoop.hdfs.NameNodeProxies.createProxy(NameNodeProxies.java:176)

当我看到它要解析的IP是主节点时,我将sed更改为配置文件(从主节点中的/ etc / hadoop / conf目录获得的)中的公共IP。 但是错误是连接到数据节点

信息hdfs.DFSClient:createBlockOutputStream org.apache.hadoop.net.ConnectTimeoutException中的异常:等待通道准备好进行连接时60000毫秒超时。 ch:位于org.apache.hadoop.hdfs的org.apache.hadoop.net.NetUtils.connect(NetUtils.java:533)上的java.nio.channels.SocketChannel [connection-pending remote = / 172.32.1.41:50010]。 org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer.createBlockOutputStream(DFSOutputStream.java:1404)的DFSOutputStream.createSocketForPipeline(DFSOutputStream.java:1606)在org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer.nextBlockOutputStream(DFS 1357)at org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer.run(DFSOutputStream.java:587)19/02/08 13:54:58 INFO hdfs.DFSClient:放弃BP-1960505320-172.32.1.231-1549632479324:blk_1073741907_1086

最后我在上传资源文件时尝试了与这个问题相同的解决方案= createBlockOutputStream中的Spark HDFS异常

将以下内容添加到hdfs-site.xml文件中:

<property>
  <name>dfs.client.use.datanode.hostname</name>
  <value>true</value>
</property>   

但是错误仍然存​​在,因为未解决的地址异常

19/02/08 13:58:06 WARN hdfs.DFSClient: DataStreamer Exception
java.nio.channels.UnresolvedAddressException
    at sun.nio.ch.Net.checkAddress(Net.java:101)
    at sun.nio.ch.SocketChannelImpl.connect(SocketChannelImpl.java:622)
    at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:192)
    at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:530)
    at org.apache.hadoop.hdfs.DFSOutputStream.createSocketForPipeline(DFSOutputStream.java:1606)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1404)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1357)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:587)

有人可以帮助我在本地计算机上设置Spark以便将火花提交给远程EMR吗?

除了按照链接的问题给出答案外,还应将工作节点的(公用)IP和(专用)DNS添加到您的/ etc / hosts文件中。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM