Hadoop叢集搭建教程
環境:
centos 6.5 (ip:192.168.80.100、192.168.80.101)
jdk 1.7
hadoop 2.8.4
ip |
程序 |
192.168.80.100(master) |
namenode |
192.168.80.101(slave) |
datanode |
建立hadoop使用者(2個節點均要建立):
$ su -
# useradd -m hadoop
# passwd hadoop
#visudo
為hadoop新增hadoop許可權,在root ALL=(ALL)ALL下新增一行:
root ALL=(ALL) ALL
hadoop ALL=(ALL) ALL
切換回hadoop:
su hadoop
設定hosts,避免直接使用ip(兩個節點均要設定):
在/etc/hosts修改如下:
127.0.0.1 master master
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.80.100 master master
192.168.80.101 slave1
為了方便,將三個節點分別設定如下hostname(重啟會失效):
sudo hostname master
sudo hostname slave1
ssh免密登入設定(以下操作在master集器進行):
然後在master節點使用以下測試是否成功:
$ ssh 192.168.80.101
安裝JDK:
安裝hadoop:
先配置master 192.168.80.100,然後scp拷貝到slave。
hadoop 的master節點配置:
需要配置六個檔案(目錄均在hadoop/etc/hadoop下):
core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves、hadoop-env.sh
1 配置core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.80.100:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hadoop/hadoop/tmp</value>
</property>
</configuration>
2 配置hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop/hadoop/tmp/dfs/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.80.100:9001</value>
</property>
<property>
<name>dfs.namenode.datanode.registration.ip-hostname-check</name>
<value>false</value>
</property>
</configuration>
3 配置mapred-site.xml
$ mv mapred-site.xml.template mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
4 配置yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>192.168.80.100</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
</configuration>
5 配置slaves
192.168.80.101
注:如果是多個,則新增多行ip。
6 配置hadoop-env.sh,修改java_home為對應地址
export JAVA_HOME=/usr/lib/java/jdk1.7.0_40
其他子節點slave配置:
此步依舊是在master節點操作
$ scp -r ~/hadoop [email protected]:~/
配置當前使用者hadoop環境變數(每個節點都要配置):
$ vim ~/.bashrc
$ source ~/.bashrc
$ echo $HADOOP_HOME //輸出看看是否生效
啟動hadoop:
$ hdfs namenode -format //格式化hdfs
$ hadoop/sbin/start-all.sh
在master節點輸入jps
在slave1節點輸入jps
然後輸入http://192.168.80.100:50070/dfshealth.html#tab-overview:
注:如果遇到測試失敗可刪掉hadoop/tmp/dfs,然後重新格式化hdfs後再啟動試試。
參考文件:
相關推薦
Hadoop叢集搭建教程(詳細)
需要的安裝包: 1.jdk壓縮包 2.hadoop壓縮包請前往百度雲上上下載相關安裝包(密碼:8op1)開始搭建hadoop叢集一.使用VMvare建立兩個虛擬機器,我使用的是ubuntu16.04版本的,並關閉全部虛擬機器的防火牆 1.因為預設的虛
Hadoop叢集搭建教程
環境: centos 6.5 (ip:192.168.80.100、192.168.80.101) jdk 1.7 hadoop 2.8.4 ip 程序 192.168.80.100(master)
Hadoop----叢集搭建指南(下卷)
前言 什麼是Hadoop? Apache Hadoop is a framework for running applications on large cluster built of commodity hardware. The Hadoop framewor
Hadoop----叢集搭建指南(中卷)
前言 本文的搭建基於上卷的配置,環境不再一一贅述。網路配置好的5臺節點均可相互ping通,對於節點hadoop1(192.168.20.2)可以ping同其餘四臺hadoop2(192.168.20.3)、hadoop3(192.168.20.4)、hadoop4(192.16
Hadoop----叢集搭建指南(上卷)
前言 閱讀本文,需要具備Linux、計算機網路的基礎知識。所以在文中出現的相關基礎知識,均以連結的形式給出,務必理解該連結的內容後,繼續閱讀本指南。 叢集搭建的環境多種多樣,本文采用VitualBox安裝5臺虛擬機器構建叢集。具體環境: CentOS 6.5 6
CentOS7下靜態ip地址分配(Hadoop叢集搭建)
作業系統是CentOS 在搭建Hadoop過程中,發現每一次啟動虛擬機器,ip地址就會變化。 這是由於一開始安裝CentOS的時候,有一個自動連線乙太網,他會自動給你分配ip地址,但是我們往往需要的是另一個。 首先看我的主機對映, 可以看到131,132,133 對應是,主機,
hadoop叢集搭建(docker)
背景 目前在一家快遞公司工作,因專案需要,對大資料平臺做個深入的瞭解。工欲利其器必先利其器,在網上找了許多教程,然後自己搭建一個本地的環境並記錄下來,增加一些印象。 環境搭建 1)Ubuntu docker pull ubuntu:16.04 docker images&nb
Hadoop叢集搭建以及遇到問題詳解
轉載:http://dblab.xmu.edu.cn/blog/install-hadoop-cluster/ centos7單機、分散式、偽分佈:https://blog.csdn.net/qq_40938267/article/details/83416665 有詳細的搭建過程
分散式系統詳解--框架(Hadoop-叢集搭建)
分散式系統詳解--框架(Hadoop-叢集搭建) 前面的文章也簡單介紹了,hadoop的環境搭建分為三種,單機版,偽分
ssh無密登入配置詳解(hadoop叢集搭建)
ssh無密登入原理 注:私鑰和公鑰是每個使用者獨有的,而不是機器或者伺服器的,比如一臺電腦或者伺服器或者虛擬機器,可以同時存在多個使用者,但不同使用者需要遠端登入其他伺服器或者虛擬機器時,都必須配置各自的私鑰和公鑰,而且使用者之間的各不相同 常用命令 ssh ip(遠端登入也可
Hadoop叢集搭建一:Single node cluster
Hadoop叢集搭建一:Single node cluster 本文主要介紹在單個ubantu機器上搭建hadoop叢集。 1.ubuntu虛擬機器安裝 採用Vmware workstation10工具來安裝ubuntu系統,ubuntu使用的是64位的18.04-desktop版本
【大資料技術】1.hadoop叢集搭建
近年來,大資料技術越來越吃香,也是追求高薪的必備技能之一。 近些日子,打算技術轉型,開始研究大資料技術,基於對JAVA、LINUX系統有一定的基礎,完成hadoop叢集搭建(1個master和1個slave)。 一、準備工具 VMvare、centOS6.3、SSH Secure客戶端(
大資料平臺--Hadoop原生搭建教程
環境準備: 三臺虛擬機器 master(8)、slave1(9)、slave2(10) centos 7.1、jdk-8u171-linux-x64.tar.gz、hadoop-2.7.3.tar.gz 0x1環境準備 首先先在三臺虛擬機器中建立hadoop資料夾 mdkir /
Hadoop叢集搭建與經驗總結
(002)最近要研發一款資料傳輸服務的產品需要用到Hadoop叢集,之前搭建過後來長時間不用就給忘記了,這次搭好來記錄一下搭建方法與經驗總結 Hadoop叢集的搭建 原料: VM虛擬機器 JDK1.8 hadoop2.7.3 注:將jdk1.8.ta
hadoop--01(hadoop叢集搭建)
1.什麼是HADOOP? HADOOP是apache旗下的一套開源軟體平臺,HADOOP提供的功能:利用伺服器叢集,根據使用者的自定義業務邏輯,對海量資料進行分散式處理 HADOOP的核心元件有 HDFS(分散式檔案系統)
Linux Hadoop叢集搭建第二步:--------SSH免密登陸
內容和Linux 搭建 Hadoop叢集--Jdk配置 相關聯 三臺虛擬機器的操作 Linux SSH免密登陸: 參考網址:http://www.cnblogs.com/999-/p/6884861.html 第一步:在master主機上 vim /etc/ssh/sshd_config
Hadoop叢集搭建中ssh免密登入
參考: 大資料系列(3) Hadoop中的ssh無密碼登入配置 解決 Agent admitted failure to sign using the key 問題 with ssh
大資料hadoop叢集搭建之後的操作
1.節點的服役和退役(hdfs) [退役] 1.新增退役節點的ip到黑名單,不要更新白名單. [/soft/hadoop/etc/dfs.hosts.exclude.txt] s205 2.配置hdfs-site.xml
linux-hadoop叢集搭建
A、系統: centos7.2 hadoop-2.6.0-cdh5.15.1 http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0
hadoop叢集搭建3之叢集啟動
前面叢集已經成功搭建,現在來嘗試啟動叢集。第一次系統啟動的時候,是需要初始化的 啟動zookeeper 1.啟動zookeeper的命令:./zkServer.sh start|stop|status [[email protected] ~]$3 zkServer.s