hadoop ha 只能同時啟動一個namenode問題的解決方案
阿新 • • 發佈:2019-02-20
啟動一個,另外一個就自動退出了。。
後來發現是我配置檔案的問題:
1.
hdfs-site.xml 裡缺少如下配置,這是關於HA的
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
2.再保證所有journalnode都啟動的前提下:
a> 在任意一個namenode上執行格式化 hdfs namenode -format
b> 把格式化好一會的資料,我這裡的路徑是/opt/hadoop2.5
這裡的資料路徑檔案具體是定義在core-site.xml裡的
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.5</value>
</property>
c> 啟動 剛才格式化好的那臺namenode主機,並且在另外一臺接受copy檔案的namenode主機上執行
hdfs namenode -bootstrapStandby
d> hdfs zkfc -formatZK && stop-dfs.sh
e>start-dfs.sh
3.補充一下,namenode 主機和備機上的host檔案裡一定要有所有節點的主機解析記錄,同時要保證namenode兩臺主機都可以免密碼訪問所有的節點,主要是兩臺都可以。。。。不然。。。就悲劇了。。。