[英]Hadoop start-all.sh errors
基本上,當我使用./start-all.sh命令啟動hadoop時,我遇到了一些問題。
我看過Hadoop群集設置-java.net.ConnectException:連接被拒絕
並且有0個datanode正在運行,並且此操作中不排除任何節點
當我運行./start-all.sh時,我得到
WARNING: Attempting to start all Apache Hadoop daemons as snagaraj in 10
seconds.
WARNING: This is not a recommended production deployment configuration.
WARNING: Use CTRL-C to abort.
Starting namenodes on [localhost]
pdsh@greg: localhost: ssh exited with exit code 1
Starting datanodes
Starting secondary namenodes [greg.bcmdc.bcm.edu]
Starting resourcemanager
Starting nodemanagers
當我運行使用Hadoop / HDFS的python腳本時出現錯誤
org.apache.hadoop.ipc.RemoteException(java.io.IOException): File
/user/data/...._COPYING_ could only be written to 0 of the
1 minReplication nodes. There are 0 datanode(s) running and 0 node(s)
are excluded in this operation.
我曾嘗試使用hdfs namenode -format重新格式化namenode,但這無濟於事。
我的xml文件上的配置似乎正確,並且我的JAVA_HOME路徑正確。 我很高興根據需要提供信息。
執行:在masternode或namenode服務器中的ssh localhost 。
如果能夠連接,則上述問題將得到解決。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.