1. 程式人生 > >HDP學習--Ambari安裝Hadoop叢集步驟

HDP學習--Ambari安裝Hadoop叢集步驟

一、 安裝前的準備

軟硬體需求:

專案 指標
os red hat6.5.x86_64
java 1.8.0_101
ambari AMBARI-2.2.1.0
HDP HDP2.4.0.0
HDP-UTILS HDP-UTILS-1.1.0.20
openssl openssl-1.0.1e-16.el6.x86_64 orlater
firewall 關閉
selinux disabled
ntpd 時鐘同步
python v2.6 or later

修改網路:

[[email protected] ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0 
DEVICE=eth0
HWADDR=00:0C:29:62:85:30
TYPE=Ethernet
UUID=c0202d5d-edd3-4058-88ca-e0194131f6ce
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR="192.168.1.221"
NETMASK="255.255.255.0"
GATEWAY="192.168.1.1"
[[email protected] ~]# 

修改/etc/hosts

:

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.221   master

修改主機名:

[root@master ~]# cat /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=master
[root@master ~]# more /proc/sys/kernel/hostname 
master [root@master ~]#

1.1java環境變數

以root許可權, 在所有伺服器上執行操作
1.1.1、刪除openjkdk:

rpm -qa |grep openjdk |xargs -i yum -y remove {}

1.1.2、

cd /var/www/html/
tar -zxvf jdk-8u101-linux-x64.tar.gz
mv jdk1.8.0_101/ java
mv java /usr/
# java_home=/usr/java

#在/etc/profile中配置java的環境變數
vi /etc/profile
#shift+G 到文字最後一行:新增下面幾行

#java 
export JAVA_HOME=/usr/java/
export JAVA_BIN=$JAVA_HOME/bin
export PATH=$PATH:$JAVA_BIN
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


# 使環境變數立刻生效:
source /etc/profile
#檢視環境變數是否配置好了
java -version   檢視是否是安裝的版本

查詢如下:
[[email protected] html]# java -version
java version "1.8.0_101"
Java(TM) SE Runtime Environment (build 1.8.0_101-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.101-b13, mixed mode)
[[email protected] html]# 

1.2 防火牆配置:

建議將防火牆關閉, 以root許可權(在所有伺服器上執行操作)

檢視防火牆的狀態
chkconfig iptables --list
關閉防火牆
chkconfig iptables off

1.3、關閉SELinux

以root許可權(在所有伺服器上執行操作)

臨時關閉:#setenforce 0
長久關閉:編輯/etc/sysconfig/selinux;修改SELINUX=disabled

1.4NTP伺服器配置

以root許可權, (在所有伺服器上執行操作)

在log16上配置ntp伺服器,其他伺服器跟log16同步
配置方法:
Log16:修改/etc/ntp.conf
###############
server 127.127.1.0 minpoll 4 maxpoll 5
fudge 127.127.1.0 stratum 2
restrict 127.0.0.1
driftfile /var/lib/ntp/drift
################
置空/etc/ntp目錄下的ntpservers檔案;
修改/etc/ntp目錄下的step-tickers檔案如下:127.127.1.0
#service ntpd restart                       //重啟ntp服務
其他log節點伺服器,修改/etc/ntp.conf
################
server 10.180.91.16 minpoll 4 maxpoll 5
fudge 127.127.1.0 stratum 3
restrict 127.0.0.1
driftfile /var/lib/ntp/drift
logfile /var/log/ntp.log
restrict 10.180.91.16 mask 255.255.255.255
#################
置空/etc/ntp目錄下的ntpservers檔案;
修改/etc/ntp目錄下的step-tickers檔案如下:10.180.91.16
其他的伺服器上啟動ntpd服務,依次執行
#service ntpd start                       //其他sever執行同樣操作

1.5、OS層引數

HBase在執行時需要操作的open files數超過預設值,一般是1024 ,最大可以設定為:65536。
配置修改:對叢集內所有機器進行如下配置修改:

vi /etc/security/limits.conf
#然後新增如下引數:
*               soft    nproc   65536
*               hard    nproc   65536
*               soft    nofile  65536
*               hard    nofile  65536
hbase               soft    nproc   65536
habse               hard    nproc   65536
hadoop  -       nofile  32768
hadoop  -       nproc   32000


#Swappiness設定
vi /etc/sysctl.conf
#在本配置中加上如下項:
vm.swappiness=0
fs.file-max = 65536
#在配置進行如下修改:/boot/grub/grub.conf
#在“module /vmlinuz-2.6.32-279.el6.x86_64 ro root=UUID=780ce319-0a35-44c6-be6d-4593c261537c intel_iommu=on rd_NO_LUKS  KE
YBOARDTYPE=pc KEYTABLE=us rd_NO_MD crashkernel=128M LANG=zh_CN.UTF-8 rd_NO_LVM rd_NO_DM rhgb quiet”這一行最後加上“elevator=deadline”

修改完之後是:
module /vmlinuz-2.6.32-279.el6.x86_64 ro root=UUID=780ce319-0a35-44c6-be6d-4593c261537c intel_iommu=on rd_NO_LUKS  KE
YBOARDTYPE=pc KEYTABLE=us rd_NO_MD crashkernel=128M LANG=zh_CN.UTF-8 rd_NO_LVM rd_NO_DM rhgb quiet elevator=deadline

然後重啟系統。

1.6 建立chbHadoop使用者及組

chbHadoop使用者用於安裝hadoop叢集相關軟體

groupadd chbHadoop
useradd -d /home/chbHadoop/ -g chbHadoop -s /bin/bash chbHadoop
passwd chbHadoop

123@hadoop

1.7 配置ssh證書認證

由於HDP安裝需要openssl-1.0.1e-16.el6.x86_64 or later ,而預設為:

[[email protected] yum.repos.d]# rpm -qa |grep openssl
openssl-1.0.1e-15.el6.x86_64
[[email protected] yum.repos.d]# 

所以需要更新openssl,

刪除舊的:
rpm -qa |grep openssl |xargs -i yum -y remove {}
#做好yum源
#更新openssl
yum upgrade openssl
#更新之後:

由於red hat6.5yum源, 需要註冊, 我臨時做了一個163的yum源,用於更新openssl, 下面為原始檔:

# CentOS-Base.repo
#
# The mirror system uses the connecting IP address of the client and the
# update status of each mirror to pick mirrors that are updated to and
# geographically close to the client.  You should use this for CentOS updates
# unless you are manually picking other mirrors.
#
# If the mirrorlist= does not work for you, as a fall back you can try the 
# remarked out baseurl= line instead.
#
#
[base]
name=CentOS-6 - Base - 163.com
baseurl=http://mirrors.163.com/centos/6/os/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=os
gpgcheck=1
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6

#released updates 
[updates]
name=CentOS-6 - Updates - 163.com
baseurl=http://mirrors.163.com/centos/6/updates/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=updates
gpgcheck=1
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6

#additional packages that may be useful
[extras]
name=CentOS-6 - Extras - 163.com
baseurl=http://mirrors.163.com/centos/6/extras/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=extras
gpgcheck=1
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6

#additional packages that extend functionality of existing packages
[centosplus]
name=CentOS-6 - Plus - 163.com
baseurl=http://mirrors.163.com/centos/6/centosplus/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=centosplus
gpgcheck=1
enabled=0
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6

#contrib - packages by Centos Users
[contrib]
name=CentOS-6 - Contrib - 163.com
baseurl=http://mirrors.163.com/centos/6/contrib/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=contrib
gpgcheck=1
enabled=0
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6

開始配置ssh 認證(只在master執行):
以uarhadoop在master上執行
至此,第一章 前期準備工作完成。

==========================================

相關推薦

HDP學習--Ambari安裝Hadoop叢集步驟

一、 安裝前的準備 軟硬體需求: 專案 指標 os red hat6.5.x86_64 java 1.8.0_101 ambari AMBARI-2.2.1.0 HDP HDP2.4.0.0

個人hadoop學習總結:Hadoop叢集+HBase叢集+Zookeeper叢集+chukwa監控(包括單機、偽分佈、完全分佈安裝操作)

環境介紹: 虛擬機器四個: hadoop-marster hadoop-salve1 hadoop-salve2 hadoop-salve3 ===========================1.Hadoop==============================

CentOS7 通過Ambari安裝Hadoop集群

部門 2.6.0 5.1 資源文件 postgresq 賬號 left direct jar 第一次在cnblogs上發表文章,效果肯定不會好,希望各位多包涵。 編寫這個文檔的背景是月中的時候,部門老大希望我們能夠抽時間學習一下Hadoop大數據方面的技術;給我的學習內容是

cdh 安裝hadoop叢集

hadoop基礎----hadoop實戰(六)-----hadoop管理工具---Cloudera Manager---CDH介紹 簡介 我們在上篇文章中已經瞭解了CDH,為了後續的學習,我們本章就來安裝CDH5.8。CDH5.8是目前比較新的版本,自帶hadoop2.0以上的hadoop,

Centos 7 安裝Hadoop叢集

Hadoop學習筆記 1. 準備工作 1.1 虛擬機器安裝jdk 準備3臺centos7的虛擬機器 配置jdk 按照連結裡安裝的虛擬機器為最小虛擬機器,裡面並未安裝jdk 安裝jdk yum install java-1.8.0-openjdk*

Linux上安裝Hadoop叢集(CentOS7+hadoop-2.8.0)

 關鍵字:Linux  CentOS  Hadoop  Java  版本:  CentOS7  Hadoop2.8.0  JDK1.8  說明:Hadoop從版本2開始加入了Yarn這個資源管理器,Yarn並不需要單獨安裝。只要在機器上安裝了

Centos安裝Hadoop叢集

提示: 需要修改hosts檔案,文章中使用hostname代替ip地址 需要SSH無金鑰登入配置 需要配置rsync遠端同步工具 1)叢集部署規劃   centos01.bkm centos02.bkm

安裝kafka 叢集 步驟

  1.下載 http://mirror.bit.edu.cn/apache/kafka/2.1.0/kafka_2.11-2.1.0.tgz 2.解壓  tar -zxvf kafka_2.11-2.1.0.tgz 3.建立兩份配置檔案 cd conf cp se

安裝HADOOP叢集伺服器

1.        規劃功能 HOSTNAME IP 說明 Master HDM01 192.168.1.1 Namenode 兼datanode Slave HDS02 192.168.1.2 Datanode Slave HDS03 192.16

基於ubuntu14.04的ambari安裝叢集部署

第一節. Ambari簡介Ambari跟Hadoop等開源軟體一樣,也是Apache Software Foundation中的一個專案,並且是頂級專案。目前最新的釋出版本是2.4.1。就Ambari的作用來說,就是建立、管理、監視Hadoop的叢集,但是這裡的Hadoop是廣義,指的是Hadoop整個生態圈

linux虛擬機器安裝hadoop叢集hadoop-2.7.5)

<property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.di

CDH 安裝hadoop 叢集中的一些問題歸納--- 持續更新

             最近自己在研究CDH 安裝Hadoop叢集,CDH 叢集的好處就是可以不用手工修改大量的配置檔案,然後去分發到所有的機器中,節省大量的人力和時間。效率比較高,一般配合CM 的圖形介面來完成所有操作,包

Linux虛擬機器上安裝Hadoop叢集(初學)

測試已成功完成安裝的版本 hbase-1.2.6-bin.tar.gz hadoop-2.7.5.tar.gz ubuntu-16.04.3-server-amd64.ios jdk-8u161-linux-x64.tar.gz zookeeper-3

Hadoop學習第二天-------Hadoop叢集搭建

一、下載Hadoop安裝包,我這裡用到的是tar.gz格式的安裝包,大家可以從官網自行下載 二、修改Hadoop配置檔案 Hadoop設計的配置檔案有以下七個並且都在$HADOOP_HOME/etc/hadoop/目錄下: - hadoop-env.sh - yarn-env.sh - sl

Ambari管理Hadoop叢集時遇到的問題

一、執行MapReduce程式出現的問題 mapreduce.task.io.sort.mb無效 java.io.IOException: Invalid "mapreduce.task.io.so

在ubuntu14.04上使用ambari搭建hadoop叢集

一、環境準備 在使用ambari搭建hadoop叢集之前需要準備一些環境。本文使用三臺機器搭建hadoop叢集。IP分別為: ubuntu 的 IP :192.168.127.138 hadoop1 的 IP: 192.168.127.1

Hadoop叢集安裝安裝hadoop叢集

1 解壓hadoop並配置相關環境變數 以hadoop使用者名稱解壓hadoop壓縮檔案 JAVA_HOME=/usr/java/jdk1.8.0_144 JRE_HOME=/usr/java/jdk1.8.0_144/jre HADOOP_HOME=/home/ha

大資料環境基礎之Centos安裝Haoop叢集(5)安裝hadoop叢集

首先要去下載hadoop-2.5.2.tar.gz安裝包,將安裝包移動到當前使用者的根目錄解壓 用命令ls檢視解壓後的hadoop 配置hadoop環境變數 配置jdk路徑,終端輸入 vi   hadoop-env.sh 配置yarn環境變數 yarn-env

解決Redhat 7 ambari安裝hadoop過程中出現myql安裝出錯

Redhat 7 ambari安裝hadoop過程中出現myql安裝出錯, check log, 這為沒有可用的包所引起download mysqlrepo源# wget http://repo.mysql.com/my

成功安裝hadoop叢集

之前學習了一段時間的hadoop,最近想總結一下自己的成果,便用寫部落格的方式去複習。hadoop入門難就難在搭建叢集。初學的開發人員大可不必去研究hadoop安裝,可以先往後面學習。所以這裡總結hadoop安裝步驟供初學者拷貝。 1:hadoop和jdk下載 為了保證之後