[英]Datanode not working on Hadoop single node cluster on windows
關於堆棧溢出有很多類似的問題,但沒有一個能解決我的問題。
我正在嘗試啟動我的名稱節點和數據節點,其中名稱節點開始工作但數據節點與資源管理器和節點管理器一起失敗。 這是顯示的錯誤:
2021-06-17 15:44:09,513 錯誤 datanode.DataNode:secureMain org.apache.hadoop.util.DiskChecker$DiskErrorException 中的異常:失敗的卷太多 - 當前有效卷:0,配置的卷:1,卷失敗:1,卷failures tolerated: 0 at org.apache.hadoop.hdfs.server.datanode.checker.StorageLocationChecker.check(StorageLocationChecker.java:231) at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2799) at org .apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2714) at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2756) at org.apache.hadoop.hdfs.server.datanode .DataNode.secureMain(DataNode.java:2900)在org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.8821324 6945888:2924) 2021-06-17 15:44:09,518 INFO util.ExitUtil:退出狀態為 1:org.apache.hadoop.util.DiskChecker$DiskErrorException:失敗的卷太多 - 當前有效卷:0,配置的卷:1,卷失敗:1,容許的卷故障:0 2021-06-17 15:44:09,522 INFO datanode.DataNode:SHUTDOWN_MSG:
這是我的hdfs-site.xml :
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>C:\Users\username\Documents\hadoop-3.2.1\data\dfs\namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>C:\Users\username\Documents\hadoop-3.2.1\data\dfs\datanode</value>
</property>
<property>
<name>dfs.datanode.failed.volumes.tolerated</name>
<value>0</value>
</property>
</configuration>
有什么解決辦法?
問題在這里得到回答:
https://stackoverflow.com/a/58924939/14194692
這個問題不接受這個答案,但我試過了,它奏效了。 多田。
沒有刪除我的問題,因為我認為沒有一個問題像這個問題一樣清楚。 我希望它能幫助其他人。
干杯。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.