繁体   English   中英

启动Hadoop DFS - $ HADOOP_HOME / bin / hdfs中没有这样的文件或目录?

[英]Starting Hadoop DFS - no such file or directory in $HADOOP_HOME/bin/hdfs?

我正在设置一个Hadoop节点,但是当运行$HADOOP_HOME/sbin/start-dfs.sh它打印出它无法找到$HADOOP_HOME/bin/hdfs 虽然存在该位置的文件,但我可以完全正确地阅读它。

从start-dfs.sh脚本记录:

root@hadoop:/opt/hadoop-2.7.3# sbin/start-dfs.sh
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf
Starting namenodes on []
localhost: starting namenode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-namenode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
localhost: starting datanode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-datanode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf

据我所知,我所有的路径变量都设置正确(echo $ HADOOP_HOME返回正确的目录)。

通常, /etc/environment文件专门用于系统范围的环境变量设置。 它不是一个脚本文件,而是由赋值表达式组成,每行一个。

它不由shell脚本处理。

请在.bashprofile.bashrc设置环境变量并启动hadoop进程。

请参阅有关环境变量的详细信息

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM