hadoop之hdfs的3個節點以同一程序啟動
阿新 • • 發佈:2018-12-13
HDFS三個程序啟動都以xxxxxxxx啟動:
以我自己的機器名稱為例: HDFS三個程序啟動以hadoop001啟動:etc/hadoop目錄下設定
之前在部署hdfs時候修改了core-site.xml檔案slaves檔案 (1)在core-site.xml檔案中修改fs.defaultFS引數為hadoop001,使NameNode程序以hadoop001啟動。 (2)在slaves檔案中將localhost改為hadoop001,使DataNode程序以hadoop001啟動。 (3)SecondaryNameNode程序預設是0.0.0.0:0啟動,我們就值需修改SecondaryNameNode程序 首先在官網hdfs元件服務hdfs-default.xml找dfs.namenode.secondary.http-address和dfs.namenode.secondary.https-address,檢視並複製
之後重啟hdfs:可以看到SecondaryNameNode是由啟動的: [[email protected] hadoop-2.6.0-cdh5.7.0]$ sbin/start-dfs.sh
因為我在設定之前沒有關掉hdfs,所以重啟時NameNode和DataNode是已經在執行狀態!
over✌
----------------------------------------------------------未完待續----------------------------------------------