1. 程式人生 > >Hadoop用戶啟動hdf幾個進程

Hadoop用戶啟動hdf幾個進程

per default docs mon 查找 是我 默認 project root

詳細的修改步驟:

啟動的三個進程:
namenode: hadoop-01 bin/hdfs getconf -namenodes
datanode: localhost datanodes (using default slaves file) etc/hadoop/slaves
secondarynamenode: 0.0.0.0

[hadoop@hadoop-01 ~]# cd/opt/software/hadoop
[hadoop@hadoop-01 hadoop]# echo "hadoop-01" > ./etc/hadoop/slaves
[hadoop@hadoop-01 hadoop]# cat./etc/hadoop/slaves

hadoop-01

[hadoop@hadoop-01 hadoop]# vi./etc/hadoop/hdfs-site.xml
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop-01:50090</value>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>hadoop-01:50091</value>

</property>

重啟

[hadoop@hadoop-01 hadoop]#sbin/stop-dfs.sh

[hadoop@hadoop-01 hadoop]#sbin/start-dfs.sh

關於步驟做一個詳細的解析:

namenode : hadoop-01

datnaode : localhost

seondarynamenode : 0.0.0.0

對於這三個進程我們要查看如何修改這些參數

  1. namenode 他讀取的文件是 core-site.xml,所以我們要對這個文件進行修改

<configuration>
<property>
<name>fs.defaultFS</name>

<value>hdfs://hadoop-01:9000</value>
</property>
</configuration>

namenode進程啟動就改為了hadoopp-01

[hadoop@hadoop-01 hadoop-2.8.1]$ cat/etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4localhost4.localdomain4
::1 localhost localhost.localdomain localhost6localhost6.localdomain6
192.168.137.30 hadoop-01 (查看了我們的機器名已經配置了相關的ip地址信息了)

需要查看hdfs啟動這三個進程究竟是一個怎樣的過程,它寫的是一個shell腳本

cat sbin/start-dfs.sh

如下圖:

文件顯示namenodes on 就等於 [root@hadoop-01 hadoop-2.8.1]$ sbin/start-dfs.sh
Starting namenodes on [localhost],所以啟動的是本地的機器名

2.datenode調用的是 slaves file文件

查找下slaves用的是什麽,發現是localhost,我們要對其進行修改

覆蓋slaves文件,讓它變成hadoop-01

3.seondarynamenode 查看shell信息

我們通過命令查看相應的結果:

打開官網查看官網給出的信息

http://hadoop.apache.org/docs/r2.8.3/hadoop-project-dist/hadoop-common/SingleCluster.html

把網站信息往下拉,可以看到下圖,點擊 hdfs-default.xml

再上節課中我們的hdfs-deault.xml使用的是默認的配置

然後 Ctrl + F 查找 secondary ,第一個就是我們所需要的信息。
推薦下我自己創建的大數據學習交流Qun: 710219868 有大佬有資料, 進Qun聊邀請碼填寫 南風(必填 )有學習路線的分享公開課,聽完之後就知道怎麽學大數據了

Hadoop用戶啟動hdf幾個進程