[英]All the slaves in the Hadoop cluster should be of the same configuration
在Hadoop中,是否强制Hadoop集群中的所有从属服务器都具有相同的配置?
Hadoop datanode can have different configuration like datanode total memory, datanode mount points etc. Hadoop数据节点可以具有不同的配置,例如数据节点总内存,数据节点安装点等。
Example: Datanode1 etc/hadoop/hdfs-site.xml can be like 示例:Datanode1 etc / hadoop / hdfs-site.xml可以像
<property>
<name>dfs.datanode.data.dir</name>
<value>/mount/data1,/mount/data2,/mount/data3</value>
</property>
Datanode2 etc/hadoop/hdfs-site.xml can be like Datanode2 etc / hadoop / hdfs-site.xml可以像
<property>
<name>dfs.datanode.data.dir</name>
<value>/mnt/dt1</value>
</property>
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.