1. 程式人生 > >Hadoop2.6.5搭建教程

Hadoop2.6.5搭建教程

最近需要搭一個HBase環境,所以第一步就是要搭建Hadoop了。搭建過程主要參考了張良均、樊哲、位文超、劉名軍等人著作的《Hadoop大資料探勘》(機械工業出版社),部分環節參考了網上查閱的資料,現在也找不到出處了,十分抱歉。

Hadoop2.6.5叢集搭建

搭建環境:Ubuntu 16.04

我使用Virtualbox建了四個虛擬機器,每個虛擬機器開了兩個網絡卡,一個用來四個虛擬機器內部連線,一個用來連外網裝軟體的。下面兩條是我在搭建過程中碰到的兩個小問題,大家可以忽略不看。

  • 修改virtualbox虛擬機器硬碟儲存空間 D:\Program Files\Oracle\VirtualBox>VBoxManage.exe modifyhdF:\virtualbox\ubuntu_slave3\ubuntu_slave3.vdi --resize 15360
  • 無法訪問共享資料夾,許可權不夠   sudo adduser boarmy vboxsf 增加使用者到vboxsf使用者組即可

1、 配置固定IP

修改hosts檔案,使用root使用者 vim /etc/hosts,增加以下四條。原檔案中有一條127.0.1.1指向本機的記錄,引起了我後續安裝Zookeeper的失敗,儘量註釋掉吧。

a)     192.168.1.10    master.ubuntu.com       master

b)     192.168.1.11    slave1.ubuntu.com       slave1

c)     192.168.1.12    slave2.ubuntu.com       slave2

d)     192.168.1.13    slave3.ubuntu.com       slave3

2、 配置Java環境

b)     tar -zxvf jdk-8u151-linux-x64.tar.gz解壓包,並放在 /usr/local/ 下

c)     修改 /etc/profile檔案,在下方新增:

# setJava enviroment

JAVA_HOME=/usr/local/jdk1.8.0_151

PATH=$JAVA_HOME/bin:$PATH

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

exportJAVA_HOME

exportPATH

export CLASSPATH

3、 新增使用者

a)     sudo adduser hadoop

b)     給hadoop新增sudo許可權,修改/etc/sudoers為,

# Userprivilege specification

root    ALL=(ALL:ALL) ALL

hadoop  ALL=(ALL:ALL) ALL   (新增一行

4、 配置SSH免密登陸

a)     切換到hadoop使用者,su – Hadoop

b)     生成公鑰和私鑰,ssh-keygen -t rsa ,打接著按3次Enter鍵

c)     匯入公鑰到認證檔案,

                i.         ssh-copy-id -i  ~/.ssh/id_rsa.pub master

               ii.         ssh-copy-id -i  ~/.ssh/id_rsa.pub slave1

              iii.         ssh-copy-id -i  ~/.ssh/id_rsa.pub slave2

              iv.         ssh-copy-id -i  ~/.ssh/id_rsa.pub slave3

d)     如果沒有安裝ssh_server端,使用命令sudo apt-get install openssh-server 進行安裝。

e)     可以先將所有節點的公鑰放在一臺機子裡,然後將公鑰檔案複製到其他節點上。

                i.         在master節點上 ssh-copy-id -i ~/.ssh/id_rsa.pub master

               ii.         在slave1節點上 ssh-copy-id -i ~/.ssh/id_rsa.pub master

              iii.         在slave2節點上 ssh-copy-id -i ~/.ssh/id_rsa.pub master

              iv.         在slave3節點上 ssh-copy-id -i ~/.ssh/id_rsa.pub master

               v.         將master機上的/home/hadoop/.ssh/ authorized_keys檔案複製到其他所有節點上:

scp.ssh/authorized_keys [email protected]:/home/hadoop/.ssh/authorized_keys

5、 配置NTP

a)     配置NTP進行叢集間的時間同步,sudo apt-get install ntp

b)     修改配置檔案/etc/ntp.conf

                i.         主節點

#註釋掉server開頭的行,並新增

restrict 192.168.0.0 mask 255.255.255.0 nomodify notrap

       Server127.127.1.0

       Fudge127.127.1.0 startum 10

               ii.         從節點

#註釋掉server開頭的行,並新增

server master

       起動ntp服務 service start ntp

6、 配置hadoop

a)     /etc/profile裡新增$HADOOP_HOME環境變數

# set HADOOP_HOME enviroment

HADOOP_HOME=/usr/local/hadoop-2.6.5

PATH=$JAVA_HOME/bin:$HADOOP_HOME:$PATH

export HADOOP_HOME

export PATH

# hadoop

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

b)     涉及到7個配置檔案

i.    $HADOOP_HOME/etc/hadoop/hadoop-env.sh
ii.    $HADOOP_HOME/etc/hadoop/yarn-env.sh
iii.    $HADOOP_HOME/etc/hadoop/slaves
iv.    $HADOOP_HOME/etc/hadoop/core-site.xml
v.    $HADOOP_HOME/etc/hadoop/hdfs-site.xml
vi.    $HADOOP_HOME/etc/hadoop/mapred-site.xml
vii.    $HADOOP_HOME/etc/hadoop/yarn-site.xml

c)    配置檔案1:hadoop-env.sh

# The java implementation to use.

#export JAVA_HOME=${JAVA_HOME}

exportJAVA_HOME=/usr/local/jdk1.8.0_151

d)     配置檔案1:yarn-env.sh

# some Java parameters

# exportJAVA_HOME=/home/y/libexec/jdk1.6.0/

export JAVA_HOME=/usr/local/jdk1.8.0_151

e)     配置檔案1:slaves

slave1

slave2

slave3

f)      配置檔案1:core-site.xml

<property>

              <name>fs.defaultFS</name>

              <value>hdfs://master:8020</value>

       </property>

       <property>

              <name>hadoop.tmp.dir</name>

              <value>/hadoop/tmp</value>

       </property>

g)     配置檔案1:hdfs-site.xml

<property>

              <name>dfs.namenode.name.dir</name>

              <value>file:///hadoop/hdfs/name</value>

       </property>

       <property>

              <name>dfs.datanode.data.dir</name>

              <value>file:///hadoop/hdfs/data</value>

       </property>

       <property>

              <name>dfs.namenode.secondary.http-address</name>

              <value>master:50090</value>

       </property>

       <property>

              <name>dfs.replication</name>

              <value>3</value>

       </property>

h)     配置檔案1:mapred-site.xml

<property>

              <name>mapreduce.framework.name</name>

              <value>yarn</value>

       </property>

       <!-- jobhistory properties -->

       <property>

              <name>mapreduce.jobhistory.address</name>

              <value>master:10020</value>

       </property>

       <property>

              <name>mapreduce.jobhistory.webapp.address</name>

              <value>master:19888</value>

       </property>

i)      配置檔案1:yarn-site.xml

<property>

              <name>yarn.resourcemanager.hostname</name>

              <value>master</value>

       </property>

       <property>

              <name>yarn.resourcemanager.address</name>

              <value>${yarn.resourcemanager.hostname}:8032</value>

       </property>

       <property>

              <name>yarn.resourcemanager.scheduler.address</name>

              <value>${yarn.resourcemanager.hostname}:8030</value>

       </property>

       <property>

              <name>yarn.resourcemanager.webapp.address</name>

              <value>${yarn.resourcemanager.hostname}:8088</value>

       </property>

       <property>

              <name>yarn.resourcemanager.webapp.https.address</name>

              <value>${yarn.resourcemanager.hostname}:8090</value>

       </property>

       <property>

              <name>yarn.resourcemanager.resource-tracker.address</name>

              <value>${yarn.resourcemanager.hostname}:8031</value>

       </property>

       <property>

              <name>yarn.resourcemanager.admin.address</name>

              <value>${yarn.resourcemanager.hostname}:8033</value>

       </property>

       <property>

              <name>yarn.nodemanager.local-dir</name>

              <value>/hadoop/yarn/local</value>

       </property>

       <property>

              <name>yarn.log-aggregation-enable</name>

              <value>true</value>

       </property>

       <property>

              <name>yarn.nodemanager.remote-app-log-dir</name>

              <value>/hadoop/tmp/logs</value>

       </property>

       <property>

              <name>yarn.log.server.url</name>

              <value>http://master:19888/jobhistory/logs</value>

              <description>URL for job historyserver</description>

       </property>

       <property>

              <name>yarn.nodemanager.vmem-check-enabled</name>

              <value>false</value>

       </property>

       <property>

              <name>yarn.nodemanager.aux-services</name>

              <value>mapreduce_shuffle</value>

       </property>

       <property>

              <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

              <value>org.apache.hadoop.mapred.ShuffleHandler</value>

              </property>

7、 啟動hadoop

a)     cd $HADOOP_HOME/sbin

c)     bash mr-jobhistory-daemon.shstart historyserver 開啟不知道什麼服務,不然19888埠不能用

8、 Hadoop叢集監控相關埠


相關推薦

Hadoop2.6.5搭建教程

最近需要搭一個HBase環境,所以第一步就是要搭建Hadoop了。搭建過程主要參考了張良均、樊哲、位文超、劉名軍等人著作的《Hadoop大資料探勘》(機械工業出版社),部分環節參考了網上查閱的資料,現在也找不到出處了,十分抱歉。 Hadoop2.6.5叢集搭建 搭建環境

hadoop學習第二天~Hadoop2.6.5完全分散式叢集搭建和測試

環境配置: 系統 centos7 節點 192.168.1.111 namenode 192.168.1.115 datanode2 192.168.1.116 datanode3 java 環境 :

Hadoop2.6.5高可用叢集搭建

軟體環境: linux系統: CentOS6.7 Hadoop版本: 2.6.5 zookeeper版本: 3.4.8 主機配置: 一共m1, m2, m3這五部機, 每部主機的使用者名稱都為centos 192.168.179.201: m

centos下搭建hadoop2.6.5

一 、centos叢集環境配置1.建立一個namenode節點,5個datanode節點 主機名 IP namenodezsw 192.168.129.158 datanode1zsw 192.168.129.159 datanode2zsw 192.168.129.16

Centos 6.5搭建git服務器

ref yum local 5.0 https figure kernel usr tar 安裝依賴 yum install curl-devel expat-devel gettext-devel openssl-devel zlib-devel perl-devel

centos 6.5搭建dhcp+網關

路由器設置 無線網絡 配置文件 客戶端 share 原先公司辦公網絡與無線網絡沒有做物理隔離,所以在物理上面還不是很安全,後來公司網絡整改,雖然起到物理隔離,但做的並不完善,只是用了個小米路由器設置,並做了dhcp,後來訪客加上公司員工手機一起上網,使的負載很高,甚至一大部分人都無法獲取i

CentOS 6.5搭建Smokeping平臺(上)

smokeping1、添加EPEL和RPMForge第三方源如果是i686平臺:rpm -ivh http://dl.fedoraproject.org/pub/epel/6/i386/epel-release-6-8.noarch.rpm rpm -ivh http://ftp.tu-chemnitz.de

CentOS 6.5搭建Smokeping平臺(下)

smokeping1、添加監控點[[email protected]/* */ ~]# vi /usr/local/smokeping/etc/config ##添加以下內容## + Other menu = 三大網絡監控 title = 監控統計 ++ dianxin menu = 電信網絡監

Centos 6.5搭建SVN服務步驟詳解

svnCentos 6.5搭建SVN服務步驟詳解一:SVN的運行方式SVN服務器有2種運行方式, 本文介紹獨立服務器的安裝方法。1. 獨立服務器 (例如:svn://xxx.com/xxx);2. 借助apache(例如:http://svn.xxx.com/xxx);二:安裝SVN1.用yum安

Elasticsearch 5.6.5 安裝教程

瀏覽器 arc address set logs ats hook common bit 下載地址 https://www.elastic.co/downloads/past-releases/elasticsearch-5-6-5 安裝環境 centos6.5

CentOS 6.5 搭建Hadoop 1.2.1集群

nod otn ip地址 maps shuffle 都是 ber 6.5 inux 記錄在64位CentOS 6.5環境下搭建Hadoop 2.5.2集群的步驟,同時遇到問題的解決辦法,這些記錄都僅供參考! 1、操作系統環境配置 1.1、操作系統環境 主機名 IP地址

Centos 6.5 安裝教程

Centos6.5安裝 網絡配置 防火墻設置 CentOS(Community Enterprise Operating System,中文意思是:社區企業操作系統)是Linux發行版之一,它是來自於Red Hat Enterprise Linux依照開放源代碼規定釋出的源代碼所編譯而成。工具:c

Centos-6.5搭建oracle11g RAC集群

bsp rem .rpm file acl stack ora-01017 centos tof 一、基本概念 RAC( Real Application Clusters-----真正的應用集群) RAC數據庫是Oracle公司數據庫的集群解決方案、高可用性解決方案。兩個

VirtualBox下 Centos6.10+Hadoop2.6叢集搭建 Windows客戶端搭建

1 Centos下載安裝 Centos映象下載地址https://www.centos.org/download/ 我選擇的是DVD版本 在VitrualBox裡面新建一個虛擬機器 硬碟給了10G,其他屬性預設,開機,選擇啟動盤,把下載好的映象放入,開始安裝 趁

CentOS 6.5 搭建 .NET 環境, Mono 5.16.0 + Jexus 5.8

   最近有這樣一個打算,就是準備把以前的有一個.NET 網站部署在Linux 下面,正好試試 .NET 跨平臺的功能,為後續研究 .netCore 方向準備。 搭建環境:   CentOS 6.5 + Mono 5.16.0 + Jexus 5.8.3 (1). Mono 安裝

CentOS 6.5 搭建 .NET 環境, Mono 5.16.0 + Jexus 5.8

curl ubun o-c tab dex 查看 如果 手動 就是 最近有這樣一個打算,就是準備把以前的有一個.NET 網站部署在Linux 下面,正好試試 .NET 跨平臺的功能,為後續研究 .netCore 方向準備。 搭建環境:   CentOS 6.5 + M

Centos 6.5 搭建hadoop 叢集

-----本叢集搭建案例,以4節點為例進行搭建 1.JDK環境安裝(jdk-7u45-linux-x64.tar.gz 為例 下載地址: https://download.csdn.net/download/sq347216161/10308549) 1.1.上傳jdk安裝包 1.2.規

【Linux】CentOS 6.5 搭建DNS(含偽根目錄)的構建方法

一、DNS 介紹 DNS(Domain Name System,域名系統),因特網上作為域名和IP地址相互對映的一個分散式資料庫,DNS協議執行在UDP協議之上,使用埠號53(Domain), 953(mdc)。這兩個埠號。在RFC文件中RFC 2181對DNS有規範說明,

在CentOS6.4下使用Eclipse編譯執行MapReduce程式Hadoop2.6.5

本文是本人按照廈門大學林子雨老師的教程然後自己在使用Eclipse編譯執行MapReduce程式的時候所做的一個部落格教程,意在幫助更多的人。廈門大學林子雨老師的教程地址:http://dblab.xmu.edu.cn/blog/hadoop-build-project-using-ecli

Hadoop2.6.5單機安裝

一,安裝環境  硬體:虛擬機器  作業系統:Centos-7 64位  主機名:linux01  安裝使用者:root 二,安裝JDK  安裝JDK1.6或者以上版本。這裡安裝jdk1.8.0。  下載地址:http://www.oracle.com/technet