1. 程式人生 > >hadoop ha 只能同時啟動一個namenode問題的解決方案

hadoop ha 只能同時啟動一個namenode問題的解決方案

啟動一個,另外一個就自動退出了。。

後來發現是我配置檔案的問題:

1.
hdfs-site.xml 裡缺少如下配置,這是關於HA的

<property>
  <name>dfs.client.failover.proxy.provider.mycluster</name>
  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

2.再保證所有journalnode都啟動的前提下:

a> 在任意一個namenode上執行格式化 hdfs namenode -format

b> 把格式化好一會的資料,我這裡的路徑是/opt/hadoop2.5

這裡的資料路徑檔案具體是定義在core-site.xml裡的

<property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-2.5</value>
    </property>

c> 啟動 剛才格式化好的那臺namenode主機,並且在另外一臺接受copy檔案的namenode主機上執行

hdfs namenode -bootstrapStandby

d> hdfs zkfc -formatZK && stop-dfs.sh

e>start-dfs.sh

3.補充一下,namenode 主機和備機上的host檔案裡一定要有所有節點的主機解析記錄,同時要保證namenode兩臺主機都可以免密碼訪問所有的節點,主要是兩臺都可以。。。。不然。。。就悲劇了。。。