hadoop叢集的安裝 一 準備工作
Hadoop叢集的安裝
1 安裝jdk並配置環境變數
2 除錯網路、ssh安裝和為hadoop建立安裝使用者並免密
3 下載hadoop並解壓
4 修改配置檔案(並修改環境變數)
5 克隆hadoop節點
6 初始化hdfs namenode
7 啟動hadoop(yarn,hdfs)
a) 安裝Java
b) 建立unix使用者賬號及網路環境配置
c) 安裝hadoop
d) SSH配置
e) 配置hadoop
f) 格式化HDFS檔案系統
g) 啟動和停止守護程序
2 CenterOS安裝Hadoop
以root身份在centerOS安裝jdk
在/usr目錄下建立java目錄
mkdir /usr/java
cd /usr/java
將下載的 jdk-8-linux-x64.tar.gz拷貝到/usr/java目錄下並解壓縮
tar -zxvf jdk-8-linux-x64.tar.gz
vi /etc/profile
追加內容
JAVA_HOME=/usr/java/jdk1.8.0_144
JRE_HOME=/usr/java/jdk1.8.0_144/jre
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH
執行source命令是環境配置檔案修改生效:
source /etc/profile
測試jdk是否安裝成功:命令
java -version
2.2 建立Unix賬號
A 我們為hadoop建立特定的賬號,專門管理hadoop
以root身份,執行建立賬號命令:
# useradd hadoop
注意:使用者賬號名稱隨意,不一定必須是hadoop,命令成功後,會生成hadoop賬號名,及組名hadoop;
接著,修改賬號登入密碼:
#passwd hadoop
按要求輸入兩次相同密碼即可;
B 修改使用者及網路環境
以root身份關閉防火牆,使用hadoop各個節點能夠相互通訊
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall開機啟動
C 修改網絡卡配置,建議配置為靜態IP
以root身份配置網絡卡配置檔案
vi /etc/sysconfig/network-scripts/ifcfg-ens33
修改內容如下:
BOOTPROTO="static"
ONBOOT="yes"
IPADDR=192.168.226.129
GATEWAY=192.168.226.2
NETMASK=255.255.255.0
DNS1=192.168.226.2
D 修改機器名稱
以root身份修改/etc/hosts檔案內容
每一個機器ip 機器名稱
192.168.1.100 master
192.168.1.101 slavea
192.168.1.102 slaveb
儲存檔案
以root身份修改對應機器名稱
hostname master 臨時改變
vi /etc/hostname 永久改變
E 修改網路配置
以root身份修改/etc/sysconfig/network
# Created by anaconda
NETWORKING=yes
HOSTNAME=master
使用如下命令使剛才的修改/etc/sysconfig/network生效
source /etc/sysconfig/network
service network restart
注意:修改其他節點機器
F 以root身份修改hadoop賬號,新增到sudoers
注意:
建立的hadoop使用者需要擁有臨時管理員身份
修改/etc/sudoers
新增內容
hadoop ALL=(ALL) NOPASSWD: ALL
重啟使之生效
2.3 SSH配置
Hadoop控制指令碼(並非守護程序)依賴SSH執行整個叢集的操作;
A:以root身份centerOs安裝啟動ssh服務
SSH 為 Secure Shell 的縮寫,SSH 為建立在應用層基礎上的安全協議。SSH 是目前較可靠,專為遠端登入會話和其他網路服務提供安全性的協議。
測試centeros檢查是否安裝了SSH包
rpm -qa|grep ssh
啟動ssh服務
systemctl restart sshd.service
B: 以root身份修改sshd服務
需要編輯/etc/ssh/sshd_config開啟sshd服務.
放開標註的文件(去掉#):
#RSAAuthentication yes
#PubkeyAuthentication yes
重啟服務,使剛才的修改生效(centos7上命令)
systemctl restart sshd.service
C:注意,以hadoop賬號身份登入,並操作 ssh免密
① 為每臺機器生成金鑰
命令:ssh-keygen - 生成、管理和轉換認證金鑰
引數
-t type
指定要建立的金鑰型別。
可以使用:“rsa1”(SSH-1) “rsa”(SSH-2) “dsa”(SSH-2)-P passphrase
提供(舊)密語
輸入命令:
ssh-keygen -t 'RSA'
在/home/使用者名稱/.ssh/目錄下生成金鑰檔案;
② 複製公鑰內容到authorized_keys檔案;
命令:
cat id_rsa.pub >> authorized_keys
chmod 644 authorized_keys
③ 將Slave1和Slave2中的>authorized_keys內容複製到Master的authorized_keys檔案中
④ 將Master中的authorized_keys檔案複製Slave1和Slave2中
scp authorized_keys [email protected]:/hadoop/.ssh/
⑤ 測試使用ssh進行無密碼登入
ssh Slave1 ssh登陸遠端伺服器
exit 並退出遠端登陸
注意:
遠端拷貝命令
scp 檔名 使用者名稱@遠端ip:/路徑/
scp命令提供選項:
-p 拷貝檔案的時候保留原始檔簡歷的時間;
-q 執行檔案拷貝時,不顯示任何提示訊息;
-r 拷貝整個目錄;
-v 拷貝檔案時,顯示提示資訊;
2.4 以hadoop賬號身份登入,安裝hadoop叢集
2.4.1 解壓hadoop並配置相關環境變數
以hadoop使用者名稱解壓hadoop壓縮檔案
JAVA_HOME=/usr/java/jdk1.8.0_144
JRE_HOME=/usr/java/jdk1.8.0_144/jre
HADOOP_HOME=/home/hadoop/hadoop-2.9.0
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/etc/hadoop
export JAVA_HOME JRE_HOME CLASS_PATH HADOOP_HOME PATH
使用命令使配置生效:
source /etc/profile
2.4.2 修改hadoop-env.sh新增jdk環境
export JAVA_HOME=/usr/java/jdk1.8.0_144
hadoop有三種執行模式:
獨立(本地)模式:
無需執行任何守護程序,所有程式都在同一個JVM上執行,適合開發階段;
偽分佈模式:
hadoop守護程序執行在本地機器上,模擬一個小規模的叢集。
全分散式模式:
hadoop守護程序執行在一個叢集上。
2.4.3 修改core-site.xml檔案
hadoop core的配置項,如hdfs、MapReduce和YARN常用的I/O設定等;
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
執行hdfs需要將一臺機器指定為namenode,屬性fs.defaultFS描述hdfs檔案系統的uri,預設埠是8020.
<!–指定hadoop執行時產生檔案的儲存路徑–>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.9.0/wutemp</value>
</property>
2.4.4 修改hdfs-site.xml檔案
hdfs-site.xml配置檔案:
hadoop守護程序的配置項,包括namenode、輔助namenode和datanode等;
<!--NameNode會持久儲存名稱空間和事務日誌-->
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/hadoop-2.9.0/wudata/name</value>
</property>
dfs.namenode.name.dir:
namenode儲存永久性的元資料的目錄列表。namenode在列表上的各個目錄中都存放相同的元資料檔案;
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/hadoop-2.9.0/wudata/data</value>
</property>
dfs.datanode.data.dir:
datanode存放資料塊的目錄列表。各個資料塊分別存放於某一個目錄中;
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
dfs.replication:
設定檔案備份係數,預設3;
<property>
<name>dfs.secondary.http.address</name>
<value>slavea:50090</value>
</property>
2.4.5 mapred-site.xml檔案
mapred-site.xml配置檔案:
MapReduce守護程序的配置項,包括作業歷史伺服器;
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
名稱mapreduce.framework.name:
指的是使用yarn執行mapreduce程式,啟動了HDFS之後,就可以啟動yarn了。執行命令start-yarn.sh即可啟動MapReduce叢集
2.4.6 yarn-site.xml檔案
Yarn守護程序的配置項,包括資源管理器、web應用代理伺服器和節點管理器;
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
yarn.resourcemanager.hostname屬性:
執行資源管理器的機器主機名,預設值:0.0.0.0
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
yarn.nodemanager.aux-services屬性:
節點管理器執行的附加服務列表。NodeManager上執行的附屬服務。需配置成mapreduce_shuffle,才可執行MapReduce程式;預設情況下,不指定附加服務。
2.4.7 為yarn新增 客戶端計算機名稱
修改/home/hadoop/hadoop-2.9.0/etc/hadoop/slaves
master
slavea
slaveb
2.5 格式化HDFS檔案系統並 啟動hdfs檔案系統
A: 首次使用hadoop前,必須格式化檔案系統,輸入如下命令:
hdfs namenode -format
B: 啟動和停止守護程序
start-dfs.sh #啟動hdfs
start-yarn.sh #啟動yarn
C:終止守護程序
stop-yarn.sh
stop-dfs.sh
注意: 啟動守護程序
hadoop-daemon.sh start namenode
測試namenode程序情況:
jps
可以使用守護程序:
start-dfs.sh
啟動dfs報錯,如下:The authenticity of host 'master (192.168.223.110)' can't be established:
解決方法:
好記心不如爛筆頭,ssh登入 The authenticity of host 192.168.0.xxx can't be established. 的問題,即可不修改/etc/ssh/ssh_config檔案的配置而解決此問題:
ssh -o StrictHostKeyChecking=no 192.168.0.xx
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver
2.6 測試叢集是否搭建成功
命令:
hdfs dfsadmin -report
在瀏覽器中測試hdfs
http://192.168.1.100:50070
相關推薦
hadoop叢集的安裝 一 準備工作
Hadoop叢集的安裝 1 安裝jdk並配置環境變數 2 除錯網路、ssh安裝和為hadoop建立安裝使用者並免密 3 下載hadoop並解壓 4 修改配置檔案(並修改環境變數) 5 克隆hadoop節點 6 初始化hdfs namenode 7 啟動hadoop(yar
星雲鏈智能合約開發(一):Mac下安裝的準備工作
星雲鏈開發環境安裝 nebulasio安裝 星雲鏈安裝 星雲鏈開發 智能合約開發 Homebrew安裝 包管理工具可以讓你安裝和更新程序變得更方便,目前在Mac系統中最受歡迎的包管理工具是 Homebrew. 我們安裝Homebrew是為了安裝星雲鏈開發環境時更方便快捷。 安裝方法 第一步
【搭建Hadoop叢集看一篇成高手系列01】hadoop執行環境的搭建篇——虛擬機器準備
版權宣告:本文為博主原創文章,未經博主允許不得轉載。 https://blog.csdn.net/wx1528159409 目錄 1. 在VMware Workstation下安裝CentOs,新建虛擬機器並安裝VMtools 2. 修改虛擬機器IP,聯網並連線Xshell 3
從零搭建Hadoop叢集(一)——離線安裝YUM源搭建
概述 Cloudera版本(Cloudera’s Distribution Including Apache Hadoop,簡稱“CDH”),基於Web的使用者管理介面,支援大部分Hadoop元件,包括HDFS、YARN、Hive、 Hbase、Zookeep
hadoop叢集搭建(一):系統安裝(centos7+vmware12)
叢集作業系統安裝(centos7+vmware12) 環境說明 作業系統 CentOS-7-x86_64-DVD-1611下載地址:官網 虛擬機器 VMware Workstat
AWS上搭建Hadoop叢集(一)——單機安裝Hadoop
課堂專案中實現了在AWS上搭建Hadoop叢集進行資料分析,過程中間不免遇到眾多問題,在此總結以供各位參考。 建立EC2例項 亞馬遜AWS服務想必大家都有所瞭解,這裡略過註冊過程(為了拿student credit還是花了一番功夫)。在EC2的介面上,
快速上手Linux(一):Linux簡介、安裝、準備工作
1.Linux簡介 1.1不同版本 CentOS Ubuntu Redhat 1.2Linux能夠做什麼? 1.3Linux的學習方法 給自己一個Linux環境 先自己嘗試搜尋解決問題 學會讀懂Linux的錯誤提示 1.4與Windows區別 沒
Hadoop詳細安裝(一)
註冊機 卡頓 ron nbsp clas 光盤映像 span 否則 程序 配置Linux開發環境(hadoop-2.6.4) 一.準備工具 VMware-workstation-10.0.1註冊機 CentOS-6.5-x86_64-bin-DVD1 jdk-7u79-li
vmware中hadoop叢集安裝指南
1、準備Linux環境 1.0先將虛擬機器的網路模式選為NAT 1.1修改主機名 vi /etc/sysconfig/network &n
hadoop叢集安裝20181016
安裝jdk 一、通過ppa源下載: 1.新增ppa元, sudo add-apt-repository ppa:webupd8team/java #等待一會兒 sudo apt-get update 2.安裝oracle-java-installer sudo apt-get install
Hadoop叢集搭建一:Single node cluster
Hadoop叢集搭建一:Single node cluster 本文主要介紹在單個ubantu機器上搭建hadoop叢集。 1.ubuntu虛擬機器安裝 採用Vmware workstation10工具來安裝ubuntu系統,ubuntu使用的是64位的18.04-desktop版本
Hadoop叢集安裝Pig
下載壓縮包:http://www.apache.org/dyn/closer.cgi/pig 解壓: tar -zxvf pig-0.17.0.tar.gz -C ~/ 配置: 在 ~/.bashrc 檔案末尾新增,其中HADOOP_HOME為Hadoop安裝路徑,如HA
雲端安裝Oracle準備工作
本地 yum源 pos .repo 配置yum 磁盤 政府部門 lin enable 最近很多政府部門業務系統都上雲端了,當然是政府雲,數據庫都需要遷移,安裝前的配置略有不同,做一個記錄。 掛載本地鏡像,配置本地yum源,遠程雲端安裝數據庫準備工作如下 1、創建掛載目錄
hadoop叢集安裝前環境的配置
1.1增加hadoop使用者 一)建立一個admin使用者 [[email protected] home]# adduser hadoop 沒輸出?沒有輸出在linux下就是操作正確 (二)為admin使用者設定密碼 [[email protected]
1.Hadoop叢集安裝部署
Hadoop叢集安裝部署 1.介紹 (1)架構模型 (2)使用工具 VMWARE cenos7 Xshell Xftp jdk-8u91-linux-x64.rpm hadoop-2.7.3.tar.gz 2.安裝步驟 (1)部署master 建立一臺虛擬機器 Xftp傳輸jdk、hadhoop安裝
2.Hadoop叢集安裝進階
Hadoop進階 1.配置SSH免密 (1)修改slaves檔案 切換到master機器,本節操作全在master進行。 進入/usr/hadoop/etc/hadoop目錄下,找到slaves檔案,修改: slave1 slave2 slave3 (2)傳送公鑰 進入根目錄下的.ssh目錄: 生成公私鑰
Hadoop叢集安裝配置
Hadoop的安裝分為單機方式、偽分散式方式 和 完全分散式方式。 單機模式 : Hadoop的預設模式。當首次解壓Hadoop的原始碼包時,Hadoop無法瞭解硬體安裝環境,便保守地選擇了最小配置。在這種預設模式下所有3個XML檔案均為空。當配置檔案為空時,Hadoop會完全執行在本地
VMWare14中Hadoop叢集安裝記錄
標籤(空格分隔): Hadoop --- 軟體: [VMWare14](https://pan.baidu.com/s/1_fZPVguQGPbXH-fMmc68YQ) (提取碼:2rsq), [CentOS 7](http://isoredirect.centos.
Hadoop叢集安裝的簡易操作
基於Hadoop分散式叢集的搭建 對於Hadoop叢集的搭建,一直處於摸索狀態,但這個在資料探勘中確實相當的重要,所以總結如下: ssh免密登入 安裝ssh客戶端 $ sudo apt-get install openssh-client 安裝完客戶端後
Hadoop叢集安裝四大模式
叢集的安裝模式: 1.單機模式:只需要解壓即可用,沒有分散式的檔案系統,也沒有namenode datanode Secondar等,檔案系統就是linux/widows的本地檔案系統。 用於:程式碼除錯 2.偽分散式:有相關的hdfs或yar