hadoop ha 只能同时启动一个namenode问题的解决方案
阅读原文时间:2021年04月20日阅读:1

启动一个,另外一个就自动退出了。。

后来发现是我配置文件的问题:

  1. hdfs-site.xml 里缺少如下配置,这是关于HA的

    dfs.client.failover.proxy.provider.mycluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider

2.再保证所有journalnode都启动的前提下:

a> 在任意一个namenode上运行格式化 hdfs namenode -format

b> 把格式化好一会的数据,我这里的路径是/opt/hadoop2.5

这里的数据路径文件具体是定义在core-site.xml里的

<property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-2.5</value>
    </property>

c> 启动 刚才格式化好的那台namenode主机,并且在另外一台接受copy文件的namenode主机上执行

hdfs namenode -bootstrapStandby

d> hdfs zkfc -formatZK && stop-dfs.sh

e>start-dfs.sh

3.补充一下,namenode 主机和备机上的host文件里一定要有所有节点的主机解析记录,同时要保证namenode两台主机都可以免密码访问所有的节点,主要是两台都可以。。。。不然。。。就悲剧了。。。