Java API 訪問HA模式下的HDFS叢集
阿新 • • 發佈:2018-12-04
在使用Hadoop Java API訪問HDFS叢集時,在建立FileSystem物件時,直接指定NameNode的IP以及埠號即可。但是在HA模式下,訪問HDFS叢集卻有一些不同,需要指定NameSpace和主備NameNode的IP以及埠等資訊,具體操作方式見如下程式碼:
Configuration conf = new Configuration(); conf.set("fs.defaultFS", "hdfs://ns1"); conf.set("dfs.nameservices", "ns1"); conf.set("dfs.ha.namenodes.ns1", "nn1,nn2"); conf.set("dfs.namenode.rpc-address.ns1.nn1", "namenode1:9000"); conf.set("dfs.namenode.rpc-address.ns1.nn2", "namenode2:9000"); //conf.setBoolean(name, value); conf.set("dfs.client.failover.proxy.provider.ns1", "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"); FileSystem fs = FileSystem.get(new URI("hdfs://ns1"), conf, "hadoop");
另外還可以將Hadoop的配置檔案core-site.xml和hdfs-site.xml拷到程式目錄下,以輸入流的方式載入到Configuration配置資訊中。在實際工作中可能沒有使用core-site.xml和hdfs-site.xml的許可權,所以還是使用第一種方法。