hadoop2.x叢集安裝
Hadoop2.X叢集安裝配置
Hadoop2.x叢集安裝分為五步:
-修改主機名及配置靜態IP
-新增Hadoop使用者組及使用者,並賦予root許可權
-安裝jdk
-配置SSH免密匙登陸
-安裝Hadoop
修改主機名及配置靜態IP
本文以四臺伺服器組成的叢集為例,其主機名與IP為:
修改主機名:
#vi /etc/hosts
新增如下一行到檔案末尾
192.168.10.100 master
192.168.10.101 slave1
192.168.10.102 slave2
192.168.10.103 slave3
下面兩行不要修改配置靜態IP:127.0.0.1 localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6
檢視IP地址永久修改IP地址
# ifconfig #vi /etc/sysconfig/network-scripts/ifcfg-eth0 EVICE="eth0" BOOTPROTO="static" BROADCAST="192.168.10.255" DNS1="192.168.10.1" IPV6INIT="yes" NM_CONTROLLED="yes" ONBOOT="yes" TYPE="Ethernet" UUID="cb8231c3-f87c-476b-89c4-aab6eadeeb05" IPADDR="192.168.10.100" PREFIX=24 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no NAME="System eth0" GATEWAY="192.168.10.1" HWADDR=00:0C:29:DD:42:78 IPV6_PEERDNS=yes IPV6_PEERROUTES=yes LAST_CONNECT=1454216929 NETMASK="255.255.255.0"
新增hadoop使用者組及使用者並賦予root許可權
新增hadoop使用者組#groupadd hadoop
新建hadoop使用者同時將使用者加入hadoop 使用者組
# useradd -g hadoop hadoop
為hadoop使用者設定密碼
# passwd hadoop
為Hadoop使用者賦予root許可權
#vi /etc/sudoers
在root ALL=(ALL:ALL) ALL 下新增hadoop ALL=(ALL:ALL) ALL
安裝jdk
檢視系統自帶的JDKjava -version
檢視JDK相關的包
解除安裝JDK相關的包下載jdk包rpm -qa | grep java
yum -y remove java java包名稱
將jdk分別解壓到/home/hadoop/目錄下,配置環境變數:
$sudo vi /etc/profile
export JAVA_HOME=/home/hadoop/jdk1.7.0_45
export PATH=$$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
export CLASSPATH=:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
使profile配置檔案生效
#source /etc/profile
檢視java版本資訊
$Java -version
配置SSH免密匙登入
在master操作
進入.ssh資料夾
$cd ~/.ssh
生成公匙和私匙,一路回車即可
ssh-keygen -t rsa
cp id_dsa.pub authorized_keys
新增master的authorized_key到slave1、slave2和slave3到本地
[email protected]: scp ~/.ssh/id_rsa.pub [email protected]:~/.ssh
[email protected]: scp ~/.ssh/id_rsa.pub [email protected]:~/.ssh
[email protected]: scp ~/.ssh/id_rsa.pub [email protected]:~/.ssh
在slave1、slave2、slave3分別操作
cat id_rsa.pub authorized_keys
在master和slave分別修改
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys
安裝Hadoop在root使用者下執行:將安裝包拷貝到 /home/hadoop目錄下
解壓安裝包
#tar –zxvf hadoop-2.x.x.tar.gz
給予hadoop使用者hadoop-2.x.x資料夾許可權
#chown –R hadoop:hadoop /home/hadoop/hadoop-2.x.x
修改系統配置
#vi /etc/profile
加入
export HADOOP_HOME=/home/hadoop/hadoop-2.x.x
export PATH=$PATH:$HADOOP_HOME/bin
#source /etc/profile
#su hadoop
$cd /home/hadoop/hadoop-2.x.x
建立相關資料夾
$mkdir –p dfs/name
$mkdir –p dfs/data
$mkdir –p tmp
$cd /home/hadoop/hadoop-2.x.x /etc/hadoop 進入配置檔案所在資料夾
$vi slaves
新增:
slave1
slave2
slave3
儲存並退出
$vi hadoop-env.sh
新增:
export JAVA_HOME=/home/hadoop/jdk1.7.0_45
儲存並退出$vi yarn-env.sh
exportJAVA_HOME=/home/hadoop/jdk1.7.0_45
儲存並退出
$vi /etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.5.1/tmp</value>
</property></configuration>
儲存並退出
$vi /etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/hadoop-2.x.x/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop/hadoop-2.x.x/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
儲存並退出
$cd /opt/hadoop-2.x.x
$cp /etc/hadoop/mapred-site.xml.template /etc/hadoop/mapred-site.xml
$vi /etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
儲存並退出
$vi /etc/hadoop/yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>
儲存並退出
將hadoop-2.x.x資料夾複製到slave1、slave2、slave3
#scp -r /home/hadoop/hadoop-2.x.x [email protected]:/home/hadoop
#scp -r /home/hadoop/hadoop-2.x.x [email protected]:/home/hadoop
#scp -r /home/hadoop/hadoop-2.x.x [email protected]:/home/hadoop
格式化namenode
$cd /home/hadoop/hadoop-2.x.x
$hdfs namenode –format
啟動Hadoop
./sbin/start-dfs.sh
./sbin/start-yarn.sh
相關推薦
hadoop2.x叢集安裝
Hadoop2.X叢集安裝配置 Hadoop2.x叢集安裝分為五步: -修改主機名及配置靜態IP -新增Hadoop使用者組及使用者,並賦予root許可權 -安裝jdk -配置SSH免密匙登陸 -安裝Hadoop 修改主機名及配置靜態IP 本文以四臺伺服器組成的叢集為例,其
基於Hadoop2.6.x叢集安裝Zookeeper
a.下載軟體包zookeeper-3.4.5.tar.gz #Master wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.5/zookeeper-3.4.5.tar.gz tar zxvf zookeeper-3.4.
老段Hadoop2.x 叢集搭建筆記
1.準備Linux環境 1.0點選VMware快捷方式,右鍵開啟檔案所在位置 -> 雙擊vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 設定網段:192.168.1.0 子網掩碼:255.255.255
Spark2.X 叢集安裝(原生版詳細)
Spark叢集安裝搭建最簡單的三臺主機的叢集。hadoop001 Master hadoop002 Workerhadoop003 Worker詳細步驟如下。1.下載spark安裝包 下載地址spark官網:http://spark.apache.or
hadoop2.x叢集的log4j配置檔案
log4j.properties: log4j.rootLogger=INFO, stdout #log4j.logger.org.springframework=INFO #log4j.logger.org.apache.activemq=INFO #log4j.lo
ElasticSearch5.x叢集安裝及測試
準備工作: 1.瞭解ES相關版本對應的JDK版本,ES5.x之後需要JDK1.7版本及以上 2.叢集環境為 IP port hostname 10.187.96.50 9200 kafka18750 10.187.96.51 9
Hadoop2.x叢集動態新增刪除資料節點
如果Hadoop叢集已經在運行了,這時可能需要動態的新增新的資料節點到Hadoop系統中去,或者將某個資料節點下線,由於業務的需要,叢集是不能重啟的,那麼具體的DataNode新增、刪除步驟是什麼樣的呢? 下面以DataNode的上線為例詳細說明下如何動態的給HDFS叢集新增資料節點(Hadoop2.0
hadoop 2.7.7 安裝(測試環境部署) hadoop2.x部署
hadoop 2.7.7 安裝(測試環境部署) hadoop2.x部署 系統環境(censtos 6.5 ): 172.16.57.97 namenodeyw 172.16.57.98 datanodeyw1 172.16.57.238 datanodeyw2
Hadoop2.7.2安裝與叢集搭建
1.環境準備 jdk需要1.7以上版本64位. 建立hadoop使用者. 在hadoop使用者目錄下解壓安裝包hadoop-2.7.2.tar.gz 2.配置免密碼登入 各節點分別執行 生成公鑰和私鑰:ssh-keygen -t rsa 四次enter. 將公鑰新增進公鑰庫:cat
hadoop2.x高可用叢集的搭建
hadoop2.0叢集的搭建 使用四臺虛擬物理機搭建叢集 叢集各角色的分配 搭zookeeper叢集 解壓 解壓zookeeper包 修改檔名 修改zookeeper的配置檔案,將其重新命名 修改檔案 修改/etc/profile,加上z
學習筆記:【Web 叢集實戰】05_CentOS 7.x 系統安裝後的基本配置及調優_楊利婷
一、基本配置 網路配置 網路配置常用的兩種方式為橋接和 NAT 模式。本文采用的是 NAT 模式連線網路。 瞭解更多網路型別可參照【Web 叢集實戰】01_VMware 虛擬機器常見的網路型別 1)首先,在宿主機 Windows 的計算機管理 - 服
【Hadoop2.x】CentOS中jdk的安裝,hadoop2.7.3環境配置
前提 VMware虛擬機器中已正確安裝CentOS系統,安裝過程可見CentOS 6 安裝 下載好jdk-8u151-linux-x64.tar.gz,以及hadoop-2.7.3.tar.gz 遠端
一、Hadoop2.x完全分散式叢集搭建
實驗環境規劃 192.168.1.101 cmaster0 192.168.1.102 cslave0 192.168.1.103 cslave1 三臺伺服器都是安裝的CentOS6.8作業系統 配置/etc/hosts [[email protected] ~]#
CentOS7+Hadoop2.7.2(HA高可用+Federation聯邦)+Hive1.2.1+Spark2.1.0 完全分散式叢集安裝
本文件主要記錄了Hadoop+Hive+Spark叢集安裝過程,並且對NameNode與ResourceManager進行了HA高可用配置,以及對NameNode的橫向擴充套件(Federation聯邦) 1VM網路配置 將子網IP設定為192.168.1.0: 將閘道器設定
hadoop2.x單機搭建分散式叢集超詳細教程
【前言】 1.個人PC機配置:戴爾,筆記本,記憶體8G,硬碟西數500G,CPU酷睿i5 2.由於工作中需要經常在叢集上做測試,另外我一直想學習大資料,因此結合百度+同事,有了此篇教程,初學者,不足之處,可在下方留言 【準備工作】 下載如下5個軟體: 1.VMw
Hadoop2.6完全分散式多節點叢集安裝配置
<name>fs.defaultFS</name> <value>hdfs://Master.Hadoop:9000</value> </property> <property> <name>io.fil
Hadoop2.6.0安裝 — 叢集
這裡寫點 Hadoop2.6.0叢集的安裝和簡單配置,一方面是為自己學習的過程做以記錄,另一方面希望也能幫助到和LZ一樣的Hadoop初學者,去搭建自己的學習和練習操作環境,後期的 MapReduce 開發環境的配置和 MapReduce 程式開發會慢慢更新出來,LZ也是邊學習邊記錄更新部落格,路人
Hadoop2.7.4分散式叢集安裝配置檔案
叢集環境 Hadoop版本為2.7.4 JDK版本1.8.0_144 安裝了三臺虛擬機器分別設定名稱和IP如下 主機名稱 IP地址 master 192.168.1.15 slave01 192.168.1.16
安裝hadoop2.x出現的問題
安裝完hadoop,格式化之後啟動hdfs,datanode不能啟動 檢視日誌: 2017-02-07 14:29:47,741 INFO org.apache.hadoop.ipc.Server: IPC Server Responder: starting 2017-02-07 14:29:47,7
elasticsearch5.x 叢集管理工具head外掛安裝、nginx配置外網訪問
一、下載安裝包 下載Elasticsearch 5.x zip和tar格式是各種系統都通用的,解壓之後啟動Elasticsearch即可。 下載elasticsearch-head 二、安裝node、npm、grunt node下載地址nodejs.org/