HDP學習--Ambari安裝Hadoop叢集步驟
一、 安裝前的準備
軟硬體需求:
專案 | 指標 |
---|---|
os | red hat6.5.x86_64 |
java | 1.8.0_101 |
ambari | AMBARI-2.2.1.0 |
HDP | HDP2.4.0.0 |
HDP-UTILS | HDP-UTILS-1.1.0.20 |
openssl | openssl-1.0.1e-16.el6.x86_64 orlater |
firewall | 關閉 |
selinux | disabled |
ntpd | 時鐘同步 |
python | v2.6 or later |
修改網路:
[[email protected] ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
HWADDR=00:0C:29:62:85:30
TYPE=Ethernet
UUID=c0202d5d-edd3-4058-88ca-e0194131f6ce
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR="192.168.1.221"
NETMASK="255.255.255.0"
GATEWAY="192.168.1.1"
[[email protected] ~]#
修改/etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.221 master
修改主機名:
[root@master ~]# cat /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=master
[root@master ~]# more /proc/sys/kernel/hostname
master
[root@master ~]#
1.1java環境變數
以root許可權, 在所有伺服器上執行操作
1.1.1、刪除openjkdk:
rpm -qa |grep openjdk |xargs -i yum -y remove {}
1.1.2、
cd /var/www/html/
tar -zxvf jdk-8u101-linux-x64.tar.gz
mv jdk1.8.0_101/ java
mv java /usr/
# java_home=/usr/java
#在/etc/profile中配置java的環境變數
vi /etc/profile
#shift+G 到文字最後一行:新增下面幾行
#java
export JAVA_HOME=/usr/java/
export JAVA_BIN=$JAVA_HOME/bin
export PATH=$PATH:$JAVA_BIN
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
# 使環境變數立刻生效:
source /etc/profile
#檢視環境變數是否配置好了
java -version 檢視是否是安裝的版本
查詢如下:
[[email protected] html]# java -version
java version "1.8.0_101"
Java(TM) SE Runtime Environment (build 1.8.0_101-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.101-b13, mixed mode)
[[email protected] html]#
1.2 防火牆配置:
建議將防火牆關閉, 以root許可權(在所有伺服器上執行操作)
檢視防火牆的狀態
chkconfig iptables --list
關閉防火牆
chkconfig iptables off
1.3、關閉SELinux
以root許可權(在所有伺服器上執行操作)
臨時關閉:#setenforce 0
長久關閉:編輯/etc/sysconfig/selinux;修改SELINUX=disabled
1.4NTP伺服器配置
以root許可權, (在所有伺服器上執行操作)
在log16上配置ntp伺服器,其他伺服器跟log16同步
配置方法:
Log16:修改/etc/ntp.conf
###############
server 127.127.1.0 minpoll 4 maxpoll 5
fudge 127.127.1.0 stratum 2
restrict 127.0.0.1
driftfile /var/lib/ntp/drift
################
置空/etc/ntp目錄下的ntpservers檔案;
修改/etc/ntp目錄下的step-tickers檔案如下:127.127.1.0
#service ntpd restart //重啟ntp服務
其他log節點伺服器,修改/etc/ntp.conf
################
server 10.180.91.16 minpoll 4 maxpoll 5
fudge 127.127.1.0 stratum 3
restrict 127.0.0.1
driftfile /var/lib/ntp/drift
logfile /var/log/ntp.log
restrict 10.180.91.16 mask 255.255.255.255
#################
置空/etc/ntp目錄下的ntpservers檔案;
修改/etc/ntp目錄下的step-tickers檔案如下:10.180.91.16
其他的伺服器上啟動ntpd服務,依次執行
#service ntpd start //其他sever執行同樣操作
1.5、OS層引數
HBase在執行時需要操作的open files數超過預設值,一般是1024 ,最大可以設定為:65536。
配置修改:對叢集內所有機器進行如下配置修改:
vi /etc/security/limits.conf
#然後新增如下引數:
* soft nproc 65536
* hard nproc 65536
* soft nofile 65536
* hard nofile 65536
hbase soft nproc 65536
habse hard nproc 65536
hadoop - nofile 32768
hadoop - nproc 32000
#Swappiness設定
vi /etc/sysctl.conf
#在本配置中加上如下項:
vm.swappiness=0
fs.file-max = 65536
#在配置進行如下修改:/boot/grub/grub.conf
#在“module /vmlinuz-2.6.32-279.el6.x86_64 ro root=UUID=780ce319-0a35-44c6-be6d-4593c261537c intel_iommu=on rd_NO_LUKS KE
YBOARDTYPE=pc KEYTABLE=us rd_NO_MD crashkernel=128M LANG=zh_CN.UTF-8 rd_NO_LVM rd_NO_DM rhgb quiet”這一行最後加上“elevator=deadline”
修改完之後是:
module /vmlinuz-2.6.32-279.el6.x86_64 ro root=UUID=780ce319-0a35-44c6-be6d-4593c261537c intel_iommu=on rd_NO_LUKS KE
YBOARDTYPE=pc KEYTABLE=us rd_NO_MD crashkernel=128M LANG=zh_CN.UTF-8 rd_NO_LVM rd_NO_DM rhgb quiet elevator=deadline
然後重啟系統。
1.6 建立chbHadoop使用者及組
chbHadoop使用者用於安裝hadoop叢集相關軟體
groupadd chbHadoop
useradd -d /home/chbHadoop/ -g chbHadoop -s /bin/bash chbHadoop
passwd chbHadoop
123@hadoop
1.7 配置ssh證書認證
由於HDP安裝需要openssl-1.0.1e-16.el6.x86_64
or later ,而預設為:
[[email protected] yum.repos.d]# rpm -qa |grep openssl
openssl-1.0.1e-15.el6.x86_64
[[email protected] yum.repos.d]#
所以需要更新openssl,
刪除舊的:
rpm -qa |grep openssl |xargs -i yum -y remove {}
#做好yum源
#更新openssl
yum upgrade openssl
#更新之後:
由於red hat6.5yum源, 需要註冊, 我臨時做了一個163的yum源,用於更新openssl, 下面為原始檔:
# CentOS-Base.repo
#
# The mirror system uses the connecting IP address of the client and the
# update status of each mirror to pick mirrors that are updated to and
# geographically close to the client. You should use this for CentOS updates
# unless you are manually picking other mirrors.
#
# If the mirrorlist= does not work for you, as a fall back you can try the
# remarked out baseurl= line instead.
#
#
[base]
name=CentOS-6 - Base - 163.com
baseurl=http://mirrors.163.com/centos/6/os/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=os
gpgcheck=1
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6
#released updates
[updates]
name=CentOS-6 - Updates - 163.com
baseurl=http://mirrors.163.com/centos/6/updates/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=updates
gpgcheck=1
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6
#additional packages that may be useful
[extras]
name=CentOS-6 - Extras - 163.com
baseurl=http://mirrors.163.com/centos/6/extras/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=extras
gpgcheck=1
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6
#additional packages that extend functionality of existing packages
[centosplus]
name=CentOS-6 - Plus - 163.com
baseurl=http://mirrors.163.com/centos/6/centosplus/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=centosplus
gpgcheck=1
enabled=0
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6
#contrib - packages by Centos Users
[contrib]
name=CentOS-6 - Contrib - 163.com
baseurl=http://mirrors.163.com/centos/6/contrib/$basearch/
#mirrorlist=http://mirrorlist.centos.org/?release=6&arch=$basearch&repo=contrib
gpgcheck=1
enabled=0
gpgkey=http://mirror.centos.org/centos/RPM-GPG-KEY-CentOS-6
開始配置ssh 認證(只在master執行):
以uarhadoop在master上執行
至此,第一章 前期準備工作完成。
==========================================
相關推薦
HDP學習--Ambari安裝Hadoop叢集步驟
一、 安裝前的準備 軟硬體需求: 專案 指標 os red hat6.5.x86_64 java 1.8.0_101 ambari AMBARI-2.2.1.0 HDP HDP2.4.0.0
個人hadoop學習總結:Hadoop叢集+HBase叢集+Zookeeper叢集+chukwa監控(包括單機、偽分佈、完全分佈安裝操作)
環境介紹: 虛擬機器四個: hadoop-marster hadoop-salve1 hadoop-salve2 hadoop-salve3 ===========================1.Hadoop==============================
CentOS7 通過Ambari安裝Hadoop集群
部門 2.6.0 5.1 資源文件 postgresq 賬號 left direct jar 第一次在cnblogs上發表文章,效果肯定不會好,希望各位多包涵。 編寫這個文檔的背景是月中的時候,部門老大希望我們能夠抽時間學習一下Hadoop大數據方面的技術;給我的學習內容是
cdh 安裝hadoop叢集
hadoop基礎----hadoop實戰(六)-----hadoop管理工具---Cloudera Manager---CDH介紹 簡介 我們在上篇文章中已經瞭解了CDH,為了後續的學習,我們本章就來安裝CDH5.8。CDH5.8是目前比較新的版本,自帶hadoop2.0以上的hadoop,
Centos 7 安裝Hadoop叢集
Hadoop學習筆記 1. 準備工作 1.1 虛擬機器安裝jdk 準備3臺centos7的虛擬機器 配置jdk 按照連結裡安裝的虛擬機器為最小虛擬機器,裡面並未安裝jdk 安裝jdk yum install java-1.8.0-openjdk*
Linux上安裝Hadoop叢集(CentOS7+hadoop-2.8.0)
關鍵字:Linux CentOS Hadoop Java 版本: CentOS7 Hadoop2.8.0 JDK1.8 說明:Hadoop從版本2開始加入了Yarn這個資源管理器,Yarn並不需要單獨安裝。只要在機器上安裝了
Centos安裝Hadoop叢集
提示: 需要修改hosts檔案,文章中使用hostname代替ip地址 需要SSH無金鑰登入配置 需要配置rsync遠端同步工具 1)叢集部署規劃 centos01.bkm centos02.bkm
安裝kafka 叢集 步驟
1.下載 http://mirror.bit.edu.cn/apache/kafka/2.1.0/kafka_2.11-2.1.0.tgz 2.解壓 tar -zxvf kafka_2.11-2.1.0.tgz 3.建立兩份配置檔案 cd conf cp se
安裝HADOOP叢集伺服器
1. 規劃功能 HOSTNAME IP 說明 Master HDM01 192.168.1.1 Namenode 兼datanode Slave HDS02 192.168.1.2 Datanode Slave HDS03 192.16
基於ubuntu14.04的ambari安裝及叢集部署
第一節. Ambari簡介Ambari跟Hadoop等開源軟體一樣,也是Apache Software Foundation中的一個專案,並且是頂級專案。目前最新的釋出版本是2.4.1。就Ambari的作用來說,就是建立、管理、監視Hadoop的叢集,但是這裡的Hadoop是廣義,指的是Hadoop整個生態圈
linux虛擬機器安裝hadoop叢集(hadoop-2.7.5)
<property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.di
CDH 安裝hadoop 叢集中的一些問題歸納--- 持續更新
最近自己在研究CDH 安裝Hadoop叢集,CDH 叢集的好處就是可以不用手工修改大量的配置檔案,然後去分發到所有的機器中,節省大量的人力和時間。效率比較高,一般配合CM 的圖形介面來完成所有操作,包
Linux虛擬機器上安裝Hadoop叢集(初學)
測試已成功完成安裝的版本 hbase-1.2.6-bin.tar.gz hadoop-2.7.5.tar.gz ubuntu-16.04.3-server-amd64.ios jdk-8u161-linux-x64.tar.gz zookeeper-3
Hadoop學習第二天-------Hadoop叢集搭建
一、下載Hadoop安裝包,我這裡用到的是tar.gz格式的安裝包,大家可以從官網自行下載 二、修改Hadoop配置檔案 Hadoop設計的配置檔案有以下七個並且都在$HADOOP_HOME/etc/hadoop/目錄下: - hadoop-env.sh - yarn-env.sh - sl
Ambari管理Hadoop叢集時遇到的問題
一、執行MapReduce程式出現的問題 mapreduce.task.io.sort.mb無效 java.io.IOException: Invalid "mapreduce.task.io.so
在ubuntu14.04上使用ambari搭建hadoop叢集
一、環境準備 在使用ambari搭建hadoop叢集之前需要準備一些環境。本文使用三臺機器搭建hadoop叢集。IP分別為: ubuntu 的 IP :192.168.127.138 hadoop1 的 IP: 192.168.127.1
Hadoop叢集的安裝 二 安裝hadoop叢集
1 解壓hadoop並配置相關環境變數 以hadoop使用者名稱解壓hadoop壓縮檔案 JAVA_HOME=/usr/java/jdk1.8.0_144 JRE_HOME=/usr/java/jdk1.8.0_144/jre HADOOP_HOME=/home/ha
大資料環境基礎之Centos安裝Haoop叢集(5)安裝hadoop叢集
首先要去下載hadoop-2.5.2.tar.gz安裝包,將安裝包移動到當前使用者的根目錄解壓 用命令ls檢視解壓後的hadoop 配置hadoop環境變數 配置jdk路徑,終端輸入 vi hadoop-env.sh 配置yarn環境變數 yarn-env
解決Redhat 7 ambari安裝hadoop過程中出現myql安裝出錯
Redhat 7 ambari安裝hadoop過程中出現myql安裝出錯, check log, 這為沒有可用的包所引起download mysqlrepo源# wget http://repo.mysql.com/my
成功安裝hadoop叢集
之前學習了一段時間的hadoop,最近想總結一下自己的成果,便用寫部落格的方式去複習。hadoop入門難就難在搭建叢集。初學的開發人員大可不必去研究hadoop安裝,可以先往後面學習。所以這裡總結hadoop安裝步驟供初學者拷貝。 1:hadoop和jdk下載 為了保證之後