1. 程式人生 > >Hadoop叢集搭建教程

Hadoop叢集搭建教程

環境:

centos 6.5  (ip:192.168.80.100、192.168.80.101)

jdk 1.7

hadoop 2.8.4

ip

程序

192.168.80.100(master)

namenode

192.168.80.101(slave)

datanode

建立hadoop使用者(2個節點均要建立):

$ su -

useradd -m hadoop

passwd hadoop

#visudo

為hadoop新增hadoop許可權,在root ALL=(ALL)ALL下新增一行:

root    ALL=(ALL)       ALL

hadoop ALL=(ALL) ALL

切換回hadoop:

su hadoop

設定hosts,避免直接使用ip(兩個節點均要設定):

在/etc/hosts修改如下:

127.0.0.1   master master

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.80.100  master master

192.168.80.101  slave1

為了方便,將三個節點分別設定如下hostname(重啟會失效):

sudo hostname master

sudo hostname slave1

ssh免密登入設定(以下操作在master集器進行):

然後在master節點使用以下測試是否成功:

$ ssh 192.168.80.101

安裝JDK:

安裝hadoop:

先配置master 192.168.80.100,然後scp拷貝到slave。

hadoop 的master節點配置:

需要配置六個檔案(目錄均在hadoop/etc/hadoop下):

core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves、hadoop-env.sh

1 配置core-site.xml

<configuration>

  <property>

    <name>fs.default.name</name>

    <value>hdfs://192.168.80.100:9000</value>

  </property>

  <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/home/hadoop/hadoop/tmp</value>

  </property>

</configuration>

2 配置hdfs-site.xml

<configuration>

  <property>

    <name>dfs.replication</name>

    <value>2</value>

  </property>

  <property>

    <name>dfs.namenode.name.dir</name>

    <value>file:/home/hadoop/hadoop/tmp/dfs/name</value>

  </property>

  <property>

    <name>dfs.datanode.data.dir</name>

    <value>file:/home/hadoop/hadoop/tmp/dfs/data</value>

  </property>

  <property>

    <name>dfs.namenode.secondary.http-address</name>

    <value>192.168.80.100:9001</value>

  </property>

       <property>

            <name>dfs.namenode.datanode.registration.ip-hostname-check</name>

            <value>false</value>

      </property>

</configuration>

3 配置mapred-site.xml

 $ mv mapred-site.xml.template mapred-site.xml

<configuration>

  <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

</configuration>

4 配置yarn-site.xml

<configuration>

    <property>

    <name>yarn.resourcemanager.hostname</name>

    <value>192.168.80.100</value>

  </property>

  <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

  </property>

  <property>

    <name>yarn.log-aggregation-enable</name>

    <value>true</value>

  </property>

  <property>

    <name>yarn.log-aggregation.retain-seconds</name>

    <value>604800</value>

  </property>

</configuration>

5 配置slaves

192.168.80.101

注:如果是多個,則新增多行ip。

6 配置hadoop-env.sh,修改java_home為對應地址

export JAVA_HOME=/usr/lib/java/jdk1.7.0_40

其他子節點slave配置:

此步依舊是在master節點操作

$ scp -r ~/hadoop [email protected]:~/

配置當前使用者hadoop環境變數(每個節點都要配置):

vim ~/.bashrc

source ~/.bashrc

$ echo $HADOOP_HOME   //輸出看看是否生效

啟動hadoop:

$ hdfs namenode -format       //格式化hdfs

$ hadoop/sbin/start-all.sh

在master節點輸入jps

在slave1節點輸入jps

然後輸入http://192.168.80.100:50070/dfshealth.html#tab-overview:

注:如果遇到測試失敗可刪掉hadoop/tmp/dfs,然後重新格式化hdfs後再啟動試試。

參考文件:

相關推薦

Hadoop叢集搭建教程(詳細)

需要的安裝包:    1.jdk壓縮包    2.hadoop壓縮包請前往百度雲上上下載相關安裝包(密碼:8op1)開始搭建hadoop叢集一.使用VMvare建立兩個虛擬機器,我使用的是ubuntu16.04版本的,並關閉全部虛擬機器的防火牆        1.因為預設的虛

Hadoop叢集搭建教程

環境: centos 6.5  (ip:192.168.80.100、192.168.80.101) jdk 1.7 hadoop 2.8.4 ip 程序 192.168.80.100(master)

Hadoop----叢集搭建指南(下卷)

前言 什麼是Hadoop? Apache Hadoop is a framework for running applications on large cluster built of commodity hardware. The Hadoop framewor

Hadoop----叢集搭建指南(中卷)

前言 本文的搭建基於上卷的配置,環境不再一一贅述。網路配置好的5臺節點均可相互ping通,對於節點hadoop1(192.168.20.2)可以ping同其餘四臺hadoop2(192.168.20.3)、hadoop3(192.168.20.4)、hadoop4(192.16

Hadoop----叢集搭建指南(上卷)

前言 閱讀本文,需要具備Linux、計算機網路的基礎知識。所以在文中出現的相關基礎知識,均以連結的形式給出,務必理解該連結的內容後,繼續閱讀本指南。 叢集搭建的環境多種多樣,本文采用VitualBox安裝5臺虛擬機器構建叢集。具體環境: CentOS 6.5 6

CentOS7下靜態ip地址分配(Hadoop叢集搭建

作業系統是CentOS 在搭建Hadoop過程中,發現每一次啟動虛擬機器,ip地址就會變化。 這是由於一開始安裝CentOS的時候,有一個自動連線乙太網,他會自動給你分配ip地址,但是我們往往需要的是另一個。 首先看我的主機對映, 可以看到131,132,133 對應是,主機,

hadoop叢集搭建(docker)

背景     目前在一家快遞公司工作,因專案需要,對大資料平臺做個深入的瞭解。工欲利其器必先利其器,在網上找了許多教程,然後自己搭建一個本地的環境並記錄下來,增加一些印象。 環境搭建 1)Ubuntu   docker pull ubuntu:16.04 docker images&nb

Hadoop叢集搭建以及遇到問題詳解

轉載:http://dblab.xmu.edu.cn/blog/install-hadoop-cluster/ centos7單機、分散式、偽分佈:https://blog.csdn.net/qq_40938267/article/details/83416665  有詳細的搭建過程

分散式系統詳解--框架(Hadoop-叢集搭建

                 分散式系統詳解--框架(Hadoop-叢集搭建)        前面的文章也簡單介紹了,hadoop的環境搭建分為三種,單機版,偽分

ssh無密登入配置詳解(hadoop叢集搭建

ssh無密登入原理 注:私鑰和公鑰是每個使用者獨有的,而不是機器或者伺服器的,比如一臺電腦或者伺服器或者虛擬機器,可以同時存在多個使用者,但不同使用者需要遠端登入其他伺服器或者虛擬機器時,都必須配置各自的私鑰和公鑰,而且使用者之間的各不相同 常用命令 ssh ip(遠端登入也可

Hadoop叢集搭建一:Single node cluster

Hadoop叢集搭建一:Single node cluster 本文主要介紹在單個ubantu機器上搭建hadoop叢集。 1.ubuntu虛擬機器安裝 採用Vmware workstation10工具來安裝ubuntu系統,ubuntu使用的是64位的18.04-desktop版本

【大資料技術】1.hadoop叢集搭建

近年來,大資料技術越來越吃香,也是追求高薪的必備技能之一。 近些日子,打算技術轉型,開始研究大資料技術,基於對JAVA、LINUX系統有一定的基礎,完成hadoop叢集搭建(1個master和1個slave)。 一、準備工具 VMvare、centOS6.3、SSH Secure客戶端(

大資料平臺--Hadoop原生搭建教程

環境準備: 三臺虛擬機器 master(8)、slave1(9)、slave2(10) centos 7.1、jdk-8u171-linux-x64.tar.gz、hadoop-2.7.3.tar.gz 0x1環境準備 首先先在三臺虛擬機器中建立hadoop資料夾 mdkir /

Hadoop叢集搭建與經驗總結

(002)最近要研發一款資料傳輸服務的產品需要用到Hadoop叢集,之前搭建過後來長時間不用就給忘記了,這次搭好來記錄一下搭建方法與經驗總結 Hadoop叢集的搭建 原料: VM虛擬機器 JDK1.8 hadoop2.7.3 注:將jdk1.8.ta

hadoop--01(hadoop叢集搭建

1.什麼是HADOOP?      HADOOP是apache旗下的一套開源軟體平臺,HADOOP提供的功能:利用伺服器叢集,根據使用者的自定義業務邏輯,對海量資料進行分散式處理 HADOOP的核心元件有 HDFS(分散式檔案系統)

Linux Hadoop叢集搭建第二步:--------SSH免密登陸

內容和Linux 搭建 Hadoop叢集--Jdk配置 相關聯 三臺虛擬機器的操作 Linux SSH免密登陸: 參考網址:http://www.cnblogs.com/999-/p/6884861.html 第一步:在master主機上 vim /etc/ssh/sshd_config 

Hadoop叢集搭建中ssh免密登入

 參考: 大資料系列(3) Hadoop中的ssh無密碼登入配置 解決 Agent admitted failure to sign using the key 問題 with ssh

大資料hadoop叢集搭建之後的操作

1.節點的服役和退役(hdfs) [退役]     1.新增退役節點的ip到黑名單,不要更新白名單.         [/soft/hadoop/etc/dfs.hosts.exclude.txt]         s205     2.配置hdfs-site.xml  

linux-hadoop叢集搭建

A、系統:   centos7.2   hadoop-2.6.0-cdh5.15.1 http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0

hadoop叢集搭建3之叢集啟動

前面叢集已經成功搭建,現在來嘗試啟動叢集。第一次系統啟動的時候,是需要初始化的 啟動zookeeper 1.啟動zookeeper的命令:./zkServer.sh start|stop|status [[email protected] ~]$3 zkServer.s