繁体   English   中英

无法将数据节点添加到Hadoop

[英]Unable to add a datanode to Hadoop

我正确设置了所有设置,并且能够在单节点上运行Hadoop ( 1.1.2 ) 但是,在对相关文件(/ etc / hosts,* -site.xml)进行更改之后,我无法将Datanode添加到集群,并且在Slave上不断出现以下错误。

有人知道如何纠正这一点吗?

2013-05-13 15:36:10,135 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-05-13 15:36:11,137 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-05-13 15:36:12,140 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

在core-site.xml conf文件中(在集群中的每个节点上)检查fs.default.name的值。 这必须是名称节点的网络名称,我怀疑您的名称为hdfs://localhost:54310 )。

未能检查集群中所有节点上的hadoop配置文件中是否提及localhost:

grep localhost $HADOOP_HOME/conf/*.xml

尝试使用namenode的IP地址或网络名称重命名localhost

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM