封尘网

让学习成为一种习惯!

hadoop把secondarynamenode分离

hadoop-2.5.2这个版本的NameNode和SecondaryNameNode默认都是在同一主机上,这样就会失去了原本的意义。SecondaryNameNode不是NameNode的备份,但是它会保存一次重要的数据,在NameNode遇到无法修改的故障时能帮助恢复NameNode的功能。

所以,如果两个NameNode都在同一主机上就没意义了。

如何把SecondaryNameNode分离到其它主机上呢?

简单两步:

一、修改hdfs-site.xml添加如下:


<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>spark-slave:50090</value>    #此处为指定的SecondaryNameNode主机和端口
</property>

二、添加masters文件,此文件并不是说主,而是指定SecondaryNameNode的位置。【填写主机名】

spark-slave

修改完后,要把文件同步到其它的主机上。

提醒:本文最后更新于 1348 天前,文中所描述的信息可能已发生改变,请谨慎使用。