1. 程式人生 > >hadoop2.x叢集安裝

hadoop2.x叢集安裝

Hadoop2.X叢集安裝配置

Hadoop2.x叢集安裝分為五步

-修改主機名及配置靜態IP

-新增Hadoop使用者組及使用者,並賦予root許可權

-安裝jdk

-配置SSH免密匙登陸

-安裝Hadoop

修改主機名及配置靜態IP

本文以四臺伺服器組成的叢集為例,其主機名與IP為:

修改主機名:

#vi /etc/hosts 

新增如下一行到檔案末尾

192.168.10.100 master
192.168.10.101 slave1
192.168.10.102 slave2
192.168.10.103 slave3
下面兩行不要修改
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
配置靜態IP:

檢視IP地址永久修改IP地址

# ifconfig 
#vi /etc/sysconfig/network-scripts/ifcfg-eth0
EVICE="eth0"
BOOTPROTO="static"
BROADCAST="192.168.10.255"
DNS1="192.168.10.1"
IPV6INIT="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="cb8231c3-f87c-476b-89c4-aab6eadeeb05"
IPADDR="192.168.10.100"
PREFIX=24
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME="System eth0"
GATEWAY="192.168.10.1"
HWADDR=00:0C:29:DD:42:78
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
LAST_CONNECT=1454216929
NETMASK="255.255.255.0"

新增hadoop使用者組及使用者並賦予root許可權

新增hadoop使用者組
#groupadd hadoop
新建hadoop使用者同時將使用者加入hadoop 使用者組
# useradd -g hadoop hadoop 
為hadoop使用者設定密碼
# passwd hadoop 

為Hadoop使用者賦予root許可權

#vi /etc/sudoers
在root  ALL=(ALL:ALL) ALL 下新增
hadoop ALL=(ALL:ALL) ALL 

安裝jdk

檢視系統自帶的JDK
java -version
檢視JDK相關的包
rpm -qa | grep java  
 解除安裝JDK相關的包下載jdk包
yum -y remove java java包名稱 

將jdk分別解壓到/home/hadoop/目錄下,配置環境變數:

$sudo vi /etc/profile
export JAVA_HOME=/home/hadoop/jdk1.7.0_45
export PATH=$$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
export CLASSPATH=:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
使profile配置檔案生效
#source /etc/profile
檢視java版本資訊
$Java -version
配置SSH免密匙登入 

在master操作 

進入.ssh資料夾 

$cd ~/.ssh  
生成公匙和私匙,一路回車即可
ssh-keygen -t rsa  
cp id_dsa.pub authorized_keys
新增master的authorized_key到slave1、slave2和slave3到本地
[email protected]: scp ~/.ssh/id_rsa.pub [email protected]:~/.ssh
[email protected]: scp ~/.ssh/id_rsa.pub [email protected]:~/.ssh
[email protected]: scp ~/.ssh/id_rsa.pub [email protected]:~/.ssh
在slave1、slave2、slave3分別操作
cat id_rsa.pub authorized_keys
在master和slave分別修改
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys
安裝Hadoop
在root使用者下執行:將安裝包拷貝到 /home/hadoop目錄下
解壓安裝包
#tar –zxvf hadoop-2.x.x.tar.gz  
給予hadoop使用者hadoop-2.x.x資料夾許可權
#chown –R hadoop:hadoop /home/hadoop/hadoop-2.x.x
 修改系統配置
#vi /etc/profile 
加入
export HADOOP_HOME=/home/hadoop/hadoop-2.x.x
export PATH=$PATH:$HADOOP_HOME/bin
#source /etc/profile 
#su hadoop
$cd /home/hadoop/hadoop-2.x.x
建立相關資料夾
$mkdir –p dfs/name
$mkdir –p dfs/data
$mkdir –p tmp
$cd /home/hadoop/hadoop-2.x.x /etc/hadoop 進入配置檔案所在資料夾
$vi slaves

新增:

slave1
slave2
slave3

儲存並退出

$vi hadoop-env.sh
新增:

export JAVA_HOME=/home/hadoop/jdk1.7.0_45

儲存並退出 
$vi yarn-env.sh
exportJAVA_HOME=/home/hadoop/jdk1.7.0_45
儲存並退出
$vi /etc/hadoop/core-site.xml
<configuration>
<property> 
       <name>fs.defaultFS</name> 
        <value>hdfs://master:9000</value> 
    </property> 
    <property> 
       <name>hadoop.tmp.dir</name>      
       <value>/home/hadoop/hadoop-2.5.1/tmp</value> 
 </property></configuration>
儲存並退出
$vi /etc/hadoop/hdfs-site.xml

<configuration>  

<property>  
        <name>dfs.namenode.name.dir</name>  
        <value>file:/home/hadoop/hadoop-2.x.x/dfs/name</value>  
    </property>  

<property>  
        <name>dfs.datanode.data.dir</name>  
        <value>file:/home/hadoop/hadoop-2.x.x/dfs/data</value>  
    </property>  

<property>  
        <name>dfs.replication</name>  
        <value>3</value>  
    </property> 
 
<property>  
        <name>dfs.namenode.secondary.http-address</name>  
        <value>master:9001</value>  
    </property>   

    <property>  
        <name>dfs.permissions</name>  
        <value>false</value>  
    </property>  
 儲存並退出
$cd /opt/hadoop-2.x.x
$cp /etc/hadoop/mapred-site.xml.template /etc/hadoop/mapred-site.xml
$vi /etc/hadoop/mapred-site.xml

<configuration>  
    <property>  
        <name>mapreduce.framework.name</name>  
        <value>yarn</value>  
    </property>
</configuration>  

儲存並退出

$vi /etc/hadoop/yarn-site.xml

<configuration>  
  
    <property>  
        <name>yarn.nodemanager.aux-services</name>  
        <value>mapreduce_shuffle</value>  
    </property>  

<property>  
  <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>  
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>  
    </property>

    <property>  
        <name>yarn.resourcemanager.address</name>  
        <value>master:8032</value>  
    </property>  

    <property>  
        <name>yarn.resourcemanager.scheduler.address</name>  
        <value>master:8030</value>  
    </property>  

    <property>  
       <name>yarn.resourcemanager.resource-tracker.address</name>  
       <value>master:8031</value>  
    </property>  

    <property>  
        <name>yarn.resourcemanager.admin.address</name>  
        <value>master:8033</value>  
    </property> 
 
    <property>  
        <name>yarn.resourcemanager.webapp.address</name>  
        <value>master:8088</value>  
    </property>  
</configuration>  

儲存並退出

將hadoop-2.x.x資料夾複製到slave1、slave2、slave3

#scp -r /home/hadoop/hadoop-2.x.x [email protected]:/home/hadoop
#scp -r /home/hadoop/hadoop-2.x.x [email protected]:/home/hadoop
#scp -r /home/hadoop/hadoop-2.x.x [email protected]:/home/hadoop
格式化namenode
$cd /home/hadoop/hadoop-2.x.x
$hdfs namenode –format

啟動Hadoop

./sbin/start-dfs.sh
./sbin/start-yarn.sh

相關推薦

hadoop2.x叢集安裝

Hadoop2.X叢集安裝配置 Hadoop2.x叢集安裝分為五步: -修改主機名及配置靜態IP -新增Hadoop使用者組及使用者,並賦予root許可權 -安裝jdk -配置SSH免密匙登陸 -安裝Hadoop 修改主機名及配置靜態IP 本文以四臺伺服器組成的叢集為例,其

基於Hadoop2.6.x叢集安裝Zookeeper

a.下載軟體包zookeeper-3.4.5.tar.gz #Master wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.5/zookeeper-3.4.5.tar.gz tar zxvf zookeeper-3.4.

老段Hadoop2.x 叢集搭建筆記

1.準備Linux環境     1.0點選VMware快捷方式,右鍵開啟檔案所在位置 -> 雙擊vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 設定網段:192.168.1.0 子網掩碼:255.255.255

Spark2.X 叢集安裝(原生版詳細)

Spark叢集安裝搭建最簡單的三臺主機的叢集。hadoop001    Master  hadoop002    Workerhadoop003    Worker詳細步驟如下。1.下載spark安裝包  下載地址spark官網:http://spark.apache.or

hadoop2.x叢集的log4j配置檔案

log4j.properties: log4j.rootLogger=INFO, stdout #log4j.logger.org.springframework=INFO #log4j.logger.org.apache.activemq=INFO #log4j.lo

ElasticSearch5.x叢集安裝及測試

準備工作: 1.瞭解ES相關版本對應的JDK版本,ES5.x之後需要JDK1.7版本及以上 2.叢集環境為 IP port hostname 10.187.96.50 9200 kafka18750 10.187.96.51 9

Hadoop2.x叢集動態新增刪除資料節點

如果Hadoop叢集已經在運行了,這時可能需要動態的新增新的資料節點到Hadoop系統中去,或者將某個資料節點下線,由於業務的需要,叢集是不能重啟的,那麼具體的DataNode新增、刪除步驟是什麼樣的呢? 下面以DataNode的上線為例詳細說明下如何動態的給HDFS叢集新增資料節點(Hadoop2.0

hadoop 2.7.7 安裝(測試環境部署) hadoop2.x部署

hadoop 2.7.7 安裝(測試環境部署) hadoop2.x部署 系統環境(censtos 6.5 ): 172.16.57.97 namenodeyw 172.16.57.98 datanodeyw1 172.16.57.238 datanodeyw2

Hadoop2.7.2安裝叢集搭建

1.環境準備 jdk需要1.7以上版本64位. 建立hadoop使用者. 在hadoop使用者目錄下解壓安裝包hadoop-2.7.2.tar.gz 2.配置免密碼登入 各節點分別執行 生成公鑰和私鑰:ssh-keygen -t rsa 四次enter. 將公鑰新增進公鑰庫:cat

hadoop2.x高可用叢集的搭建

hadoop2.0叢集的搭建 使用四臺虛擬物理機搭建叢集 叢集各角色的分配 搭zookeeper叢集 解壓 解壓zookeeper包 修改檔名 修改zookeeper的配置檔案,將其重新命名 修改檔案 修改/etc/profile,加上z

學習筆記:【Web 叢集實戰】05_CentOS 7.x 系統安裝後的基本配置及調優_楊利婷

一、基本配置 網路配置 網路配置常用的兩種方式為橋接和 NAT 模式。本文采用的是 NAT 模式連線網路。 瞭解更多網路型別可參照【Web 叢集實戰】01_VMware 虛擬機器常見的網路型別 1)首先,在宿主機 Windows 的計算機管理 - 服

Hadoop2.x】CentOS中jdk的安裝hadoop2.7.3環境配置

前提 VMware虛擬機器中已正確安裝CentOS系統,安裝過程可見CentOS 6 安裝 下載好jdk-8u151-linux-x64.tar.gz,以及hadoop-2.7.3.tar.gz 遠端

一、Hadoop2.x完全分散式叢集搭建

實驗環境規劃 192.168.1.101 cmaster0 192.168.1.102 cslave0 192.168.1.103 cslave1 三臺伺服器都是安裝的CentOS6.8作業系統 配置/etc/hosts [[email protected] ~]#

CentOS7+Hadoop2.7.2(HA高可用+Federation聯邦)+Hive1.2.1+Spark2.1.0 完全分散式叢集安裝

本文件主要記錄了Hadoop+Hive+Spark叢集安裝過程,並且對NameNode與ResourceManager進行了HA高可用配置,以及對NameNode的橫向擴充套件(Federation聯邦) 1VM網路配置 將子網IP設定為192.168.1.0: 將閘道器設定

hadoop2.x單機搭建分散式叢集超詳細教程

【前言】 1.個人PC機配置:戴爾,筆記本,記憶體8G,硬碟西數500G,CPU酷睿i5 2.由於工作中需要經常在叢集上做測試,另外我一直想學習大資料,因此結合百度+同事,有了此篇教程,初學者,不足之處,可在下方留言 【準備工作】 下載如下5個軟體: 1.VMw

Hadoop2.6完全分散式多節點叢集安裝配置

  <name>fs.defaultFS</name>   <value>hdfs://Master.Hadoop:9000</value>  </property>  <property>   <name>io.fil

Hadoop2.6.0安裝叢集

這裡寫點 Hadoop2.6.0叢集的安裝和簡單配置,一方面是為自己學習的過程做以記錄,另一方面希望也能幫助到和LZ一樣的Hadoop初學者,去搭建自己的學習和練習操作環境,後期的 MapReduce 開發環境的配置和 MapReduce 程式開發會慢慢更新出來,LZ也是邊學習邊記錄更新部落格,路人

Hadoop2.7.4分散式叢集安裝配置檔案

叢集環境 Hadoop版本為2.7.4 JDK版本1.8.0_144 安裝了三臺虛擬機器分別設定名稱和IP如下 主機名稱 IP地址 master 192.168.1.15 slave01 192.168.1.16

安裝hadoop2.x出現的問題

安裝完hadoop,格式化之後啟動hdfs,datanode不能啟動 檢視日誌: 2017-02-07 14:29:47,741 INFO org.apache.hadoop.ipc.Server: IPC Server Responder: starting 2017-02-07 14:29:47,7

elasticsearch5.x 叢集管理工具head外掛安裝、nginx配置外網訪問

一、下載安裝包 下載Elasticsearch 5.x zip和tar格式是各種系統都通用的,解壓之後啟動Elasticsearch即可。 下載elasticsearch-head 二、安裝node、npm、grunt node下載地址nodejs.org/