Hadoop用戶啟動hdf幾個進程
啟動的三個進程:
namenode: hadoop-01 bin/hdfs getconf -namenodes
datanode: localhost datanodes (using default slaves file) etc/hadoop/slaves
secondarynamenode: 0.0.0.0
[hadoop@hadoop-01 ~]# cd/opt/software/hadoop
[hadoop@hadoop-01 hadoop]# echo "hadoop-01" > ./etc/hadoop/slaves
[hadoop@hadoop-01 hadoop]# cat./etc/hadoop/slaves
[hadoop@hadoop-01 hadoop]# vi./etc/hadoop/hdfs-site.xml
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop-01:50090</value>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>hadoop-01:50091</value>
重啟
[hadoop@hadoop-01 hadoop]#sbin/stop-dfs.sh
[hadoop@hadoop-01 hadoop]#sbin/start-dfs.sh
關於步驟做一個詳細的解析:
namenode : hadoop-01
datnaode : localhost
seondarynamenode : 0.0.0.0
對於這三個進程我們要查看如何修改這些參數
- namenode 他讀取的文件是 core-site.xml,所以我們要對這個文件進行修改
<configuration>
<property>
<name>fs.defaultFS</name>
</property>
</configuration>
namenode進程啟動就改為了hadoopp-01
[hadoop@hadoop-01 hadoop-2.8.1]$ cat/etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4localhost4.localdomain4
::1 localhost localhost.localdomain localhost6localhost6.localdomain6
192.168.137.30 hadoop-01 (查看了我們的機器名已經配置了相關的ip地址信息了)
需要查看hdfs啟動這三個進程究竟是一個怎樣的過程,它寫的是一個shell腳本
cat sbin/start-dfs.sh
如下圖:
文件顯示namenodes on 就等於 [root@hadoop-01 hadoop-2.8.1]$ sbin/start-dfs.sh
Starting namenodes on [localhost],所以啟動的是本地的機器名
2.datenode調用的是 slaves file文件
查找下slaves用的是什麽,發現是localhost,我們要對其進行修改
覆蓋slaves文件,讓它變成hadoop-01
3.seondarynamenode 查看shell信息
我們通過命令查看相應的結果:
打開官網查看官網給出的信息
http://hadoop.apache.org/docs/r2.8.3/hadoop-project-dist/hadoop-common/SingleCluster.html
把網站信息往下拉,可以看到下圖,點擊 hdfs-default.xml
再上節課中我們的hdfs-deault.xml使用的是默認的配置
然後 Ctrl + F 查找 secondary ,第一個就是我們所需要的信息。
推薦下我自己創建的大數據學習交流Qun: 710219868 有大佬有資料, 進Qun聊邀請碼填寫 南風(必填 )有學習路線的分享公開課,聽完之後就知道怎麽學大數據了
Hadoop用戶啟動hdf幾個進程