簡體   English   中英

Hadoop start-all.sh錯誤

[英]Hadoop start-all.sh errors

基本上,當我使用./start-all.sh命令啟動hadoop時,我遇到了一些問題。

我看過Hadoop群集設置-java.net.ConnectException:連接被拒絕

並且有0個datanode正在運行,並且此操作中不排除任何節點

當我運行./start-all.sh時,我得到

  WARNING: Attempting to start all Apache Hadoop daemons as snagaraj in 10 
  seconds.
  WARNING: This is not a recommended production deployment configuration.
  WARNING: Use CTRL-C to abort.
  Starting namenodes on [localhost]
  pdsh@greg: localhost: ssh exited with exit code 1
  Starting datanodes
  Starting secondary namenodes [greg.bcmdc.bcm.edu]
  Starting resourcemanager
  Starting nodemanagers

當我運行使用Hadoop / HDFS的python腳本時出現錯誤

  org.apache.hadoop.ipc.RemoteException(java.io.IOException): File 
  /user/data/...._COPYING_ could only be written to 0 of the 
  1 minReplication nodes. There are 0 datanode(s) running and 0 node(s) 
  are excluded in this operation.

我曾嘗試使用hdfs namenode -format重新格式化namenode,但這無濟於事。

我的xml文件上的配置似乎正確,並且我的JAVA_HOME路徑正確。 我很高興根據需要提供信息。

執行:在masternode或namenode服務器中的ssh localhost

如果能夠連接,則上述問題將得到解決。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM