1. 程式人生 > 其它 >【圖文詳解】Hadoop叢集搭建(CentOs6.3)

【圖文詳解】Hadoop叢集搭建(CentOs6.3)

閱讀目錄

  • 前期準備
  • 總結
  • 問題解決
  • 叢集中各個埠

本文主要詳細地描述了hadoop叢集的搭建以及一些配置檔案的說明,用於自己複習以及供新人學習,若有錯誤之處還請指出。

回到頂部

前期準備

先給出我的叢集架構:

  • 到hadoop官網下載好hadoop安裝包http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.6.5/hadoop-2.6.5.tar.gz

  • 裝好四臺虛擬機器(我的四臺虛擬機器是CentOs6.3系統)

  • 四臺虛擬機器都裝好jdk

  • 四臺虛擬機器都配好免密登入

  • 四臺虛擬機器都配置好ip地址和主機名對映關係(以下是我的地址對映關係)

    vim /etc/hosts

      192.168.25.13	mini1
      192.168.25.14	mini2
      192.168.25.15	mini3
      192.168.25.16	mini4
    

以上步驟有不會的可檢視我的其他幾篇部落格:

Linux下的常用配置

Linux下配置免密登入


1、將hadoop安裝包上傳到mini1上,解壓後改名,並建立目錄hadoopdata與hadoop目錄平行

tar -zxvf hadoop-2.6.5.tar.gz -C /root/apps/
cd /root/apps/
mv hadoop-2.6.5 hadoop
mkdir hadoopdata

2、進入hadoop配置檔案目錄下,可看到以下配置檔案

cd hadoop/etc/hadoop/

3、修改hadoop-env.sh配置檔案

vim hadoop-env.sh
#寫上自己的JAVA_HOME

4、修改core-site.xml配置檔案

vim core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://mini1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/root/apps/hadoopdata</value>
</property>
</configuration>

配置說明:

fs.defaultFS:hadoop使用什麼檔案系統
hdfs://mini1:9000:指定hadoop系統使用hdfs檔案系統,並指明namenode為mini1,客戶端訪問埠為9000

hadoop.tmp.dir:hadoop檔案儲存目錄

有2個引數可配置,但一般來說我們不做修改。
fs.checkpoint.period表示多長時間記錄一次hdfs的映象,預設是1小時。
fs.checkpoint.size表示映象檔案快大小,預設64M。

<property>
<name>fs.checkpoint.period</name>
<value>3600</value>
</property>

<property>
<name>fs.checkpoint.size</name>
<value>67108864</value>
</property>

5、修改hdfs-site.xml(可不做任何配置,使用預設)

vim hdfs-site.xml

<configuration>

<property>
<name>dfs.namenode.name.dir</name>
<value>/root/apps/hadoopdata/name</value>
</property>

<property>
<name>dfs.datanode.data.dir</name>
<value>/root/apps/hadoopdata/data</value>
</property>

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

</configuration>

配置說明:

dfs.namenode.name.dir:namenode節點的資料存放目錄
dfs.datanode.data.dir:datanode節點的資料存放目錄
dfs.replication:叢集中hdfs儲存資料的副本數

6、更改mapred-site.xml.template的配置檔名,並進行配置

mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

配置說明:

mapreduce.framework.name:使用yarn執行mapreduce程式

7、修改yarn-site.xml配置檔案

vim yarn-site.xml

<configuration>

<property>
<name>yarn.resourcemanager.hostname</name>
<value>mini1</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

配置說明:

yarn.resourcemanager.hostname:指定YARN的老大(ResourceManager)的地址
yarn.nodemanager.aux-services:指定reducer獲取資料的方式

8、修改slaves檔案

vim slaves
# 在此檔案下寫入需要啟動datanode和nodemanager的機器(往往datanode和nodemanager在一臺機器上啟動),一行代表一臺機器。

9、將hadoop新增到環境變數,並重新載入環境變數

vim /etc/profile

export HADOOP_HOME=/itcast/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

重要!重要!重要!!!

Apache提供的hadoop本地庫是32位的,而在64位的伺服器上就會有問題,因此需要自己對原始碼進行編譯64位的版本。

自己編譯比較麻煩,可以去網站:http://dl.bintray.com/sequenceiq/sequenceiq-bin/下載對應的編譯版本。

準備好64位的lib包後做以下操作:

#解壓到已經安裝好的hadoop安裝目錄的lib/native 和 lib目錄下
tar -zxvf hadoop-native-64-2.6.0.tar -C hadoop/lib/native 
tar -zxvf hadoop-native-64-2.6.0.tar -C hadoop/lib
#配置環境變數 
vi /etc/profile 
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native  
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" 
source /etc/profile
#hadoop檢測本地庫
hadoop checknative –a 

10、將hadoop和配置檔案分別分發給另外三臺機器(mini2,mini3,mini4)

scp -r /root/apps/hadoop mini2:/root/apps/
scp -r /root/apps/hadoop mini3:/root/apps/
scp -r /root/apps/hadoop mini4:/root/apps/

scp /etc/profile mini2:/etc/
scp /etc/profile mini3:/etc/
scp /etc/profile mini4:/etc/

不要忘記三臺機器都要重新載入一下配置檔案

11、初始化HDFS

hadoop  namenode  -format

12、批量啟動/停止

#批量啟動hdfs
start-dfs.sh
#批量停止hdfs
stop-dfs.sh
#批量啟動yarn
strat-yarn.sh
#批量停止yarn
stop-yarn.sh
#單獨啟動或停止hdfs,yarn
hadoop-daemon.sh start namenode		hadoop-daemon.sh stop namenode
hadoop-daemon.sh start datanode		hadoop-daemon.sh stop datanode

hadoop-daemon.sh start resourcemanager	hadoop-daemon.sh stop resourcemanager
hadoop-daemon.sh start nodemanager		hadoop-daemon.sh stop nodemanager
回到頂部

總結

  • 官網提供的版本本地庫是32位的,在64位主機環境下無法執行。需要下載hadoop原始碼進行編譯。
  • 自己編譯參考https://jingyan.baidu.com/article/ce436649fea8533772afd365.html
  • 配置檔案hdfs-site.xml可不做任何配置,使用預設即可
  • 叢集中每臺機器都要記得修改/etc/hosts檔案
  • 叢集中所有的機器配置環境變數後不要忘記source一下(因為本文的環境變數檔案是通過scp命令傳給各臺機器的,很容易忘記source)
  • 配置免密登入的時候不要忘記本機也配置上(將mini1的公鑰發給mini1)(ssh-copy-id mini1)
  • 如果哪臺機器啟動出錯,可檢視相應機器下的日誌檔案,根據錯誤資訊百度查詢解決方法(/root/apps/hadoop/logs/)(檢視.log結尾的日誌檔案)
  • 嚴格按照上述流程安裝(包括目錄建立以及目錄的位置),可順利完成叢集的搭建
回到頂部

問題解決

datanode無法啟動

原因:

初始化工作目錄結構(hdfs namenode -format)只是初始化了namenode的工作目錄,而datanode的工作目錄是在datanode啟動後自己初始化的。
namenode在format初始化的時候會形成兩個標識:
    blockPoolId,
    clusterId.

新的datanode加入時,會獲取這兩個標識作為自己工作目錄中的標
識。一旦namenode重新format後,namenode的身份標識已變,而
datanode如果依然持有原來的id,就不會被namenode識別。
解決方法:

將datanode機器上的工作目錄刪掉,重新啟動datanode,
它會重新建立工作目錄,並獲取namenode的標識。
回到頂部

叢集中各個埠


更多配置檔案資訊參考:https://blog.csdn.net/cuitaixiong/article/details/51591410