1. 程式人生 > >Hadoop叢集的安裝 二 安裝hadoop叢集

Hadoop叢集的安裝 二 安裝hadoop叢集

1 解壓hadoop並配置相關環境變數

以hadoop使用者名稱解壓hadoop壓縮檔案

JAVA_HOME=/usr/java/jdk1.8.0_144

JRE_HOME=/usr/java/jdk1.8.0_144/jre

HADOOP_HOME=/home/hadoop/hadoop-2.9.0

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/etc/hadoop

export JAVA_HOME JRE_HOME CLASS_PATH HADOOP_HOME PATH

使用命令使配置生效:

source /etc/profile

2 修改hadoop-env.sh新增jdk環境

export JAVA_HOME=/usr/java/jdk1.8.0_144

hadoop有三種執行模式:

獨立(本地)模式:

無需執行任何守護程序,所有程式都在同一個JVM上執行,適合開發階段;

偽分佈模式:

hadoop守護程序執行在本地機器上,模擬一個小規模的叢集。

全分散式模式:

hadoop守護程序執行在一個叢集上。

核心配置引數:

  1. 指定Hadoop的預設檔案為:hdfs            core-site.xml檔案中新增
  2. 指定hdfs的namenode節點為哪臺機器   core-site.xml檔案中新增
  3. 指定namenode儲存元資料的本地目錄   hdfs-site.xml檔案中新增
  4. 指定DataNode存放檔案塊的本地目錄   hdfs-site.xml檔案中新增

3 修改core-site.xml檔案

hadoop core的配置項,如hdfs、MapReduce和YARN常用的I/O設定等;

<configuration>

<property>

<name>fs.defaultFS</name> #Hadoop預設訪問的檔案系統為hdfs

<value>hdfs://master:9000/</value>#指定的namenode的URI

</property>

執行hdfs需要將一臺機器指定為namenode,屬性fs.defaultFS描述hdfs檔案系統的uri,預設埠是8020.

<!–指定hadoop執行時產生檔案的儲存路徑–>

<property>

  <name>hadoop.tmp.dir</name>

  <value>/home/hadoop/hadoop-2.9.0/wutemp</value>

</property>

</configuration>

4 修改hdfs-site.xml檔案

hdfs-site.xml配置檔案:

hadoop守護程序的配置項,包括namenode、輔助namenode和datanode等;

<!--NameNode會持久儲存名稱空間和事務日誌-->

<configuration>

     <property>

       <name>dfs.namenode.name.dir</name>

       <value>/home/hadoop/hadoop-2.9.0/wudata/name</value>

     </property>

dfs.namenode.name.dir:

namenode儲存永久性的元資料的目錄列表。namenode在列表上的各個目錄中都存放相同的元資料檔案;

<property>

     <name>dfs.datanode.data.dir</name>

     <value>/home/hadoop/hadoop-2.9.0/wudata/data</value>

</property>

dfs.datanode.data.dir:

datanode存放資料塊的目錄列表。各個資料塊分別存放於某一個目錄中;

<property>

  <name>dfs.replication</name>

  <value>2</value>

</property>

dfs.replication:

設定檔案備份係數,預設3;

<property>

  <name>dfs.secondary.http.address</name>

  <value>slaveb:50090</value>

</property>

</configuration>

5 mapred-site.xml檔案

mapred-site.xml配置檔案:

MapReduce守護程序的配置項,包括作業歷史伺服器;

<property>

  <name>mapreduce.framework.name</name>

  <value>yarn</value>

</property>

名稱mapreduce.framework.name:

指的是使用yarn執行mapreduce程式,啟動了HDFS之後,就可以啟動yarn了。執行命令start-yarn.sh即可啟動MapReduce叢集

6 yarn-site.xml檔案

Yarn守護程序的配置項,包括資源管理器、web應用代理伺服器和節點管理器;

<property>

  <name>yarn.resourcemanager.hostname</name>

  <value>master</value>

</property>

yarn.resourcemanager.hostname屬性:

執行資源管理器的機器主機名,預設值:0.0.0.0

<property>

  <name>yarn.nodemanager.aux-services</name>

  <value>mapreduce_shuffle</value>

</property>

yarn.nodemanager.aux-services屬性:

節點管理器執行的附加服務列表。NodeManager上執行的附屬服務。需配置成mapreduce_shuffle,才可執行MapReduce程式;預設情況下,不指定附加服務。

7 為yarn新增 客戶端計算機名稱

修改/home/hadoop/hadoop-2.9.0/etc/hadoop/slaves

slavea

slaveb

8 啟動hdfs檔案系統

首次使用hadoop前,必須格式化檔案系統,輸入如下命令:

systemctl stop firewalld.service #停止firewall

systemctl disable firewalld.service #禁止firewall開機啟動

hdfs namenode -format  #namenode的格式化,第一次執行前敲入命令

9 啟動守護程序

hadoop-daemon.sh start namenode

測試namenode程序情況:

jps

可以使用守護程序:

start-dfs.sh

start-yarn.sh

mr-jobhistory-daemon.sh start historyserver

10 終止守護程序

mr-jobhistory-daemon.sh stop historyserver

stop-yarn.sh

stop-dfs.sh

11建立使用者目錄

hadoop fs -mkdir -P /usr/$USER

相關推薦

Hadoop叢集安裝 安裝hadoop叢集

1 解壓hadoop並配置相關環境變數 以hadoop使用者名稱解壓hadoop壓縮檔案 JAVA_HOME=/usr/java/jdk1.8.0_144 JRE_HOME=/usr/java/jdk1.8.0_144/jre HADOOP_HOME=/home/ha

Spark學習筆記() 安裝Hadoop單節點叢集

安裝Hadoop單節點叢集 1. 下載並解壓Hadoop 1.1 下載Hadoop 1.2 解壓Hadoop包 1.3 將解壓的資料夾重新命名為Hadoop,然後拷貝到/usr/local下 2. 設定Hadoop環境變數

大資料教程()—— Hadoop叢集壞境CentOS安裝

前言 前面我們主要分析了搭建Hadoop叢集所需要準備的內容和一些提前規劃好的項,本篇我們主要來分析如何安裝CentOS作業系統,以及一些基礎的設定,閒言少敘,我們進入本篇的正題。 技術準備 VMware虛擬機器、CentOS 6.8 64 bit 安裝流程 因為我的筆記本

Docker實戰之安裝配置Hadoop-2.5.2完全分散式叢集

環境配置 VM:VMware Workstation OS:Ubuntu 14.04  LTS Hadoop:hadoop-2.5.2 Hadoop叢集規劃 172.17.0.2    hadoop-master 172.17.

spark-2.2.0 叢集安裝部署以及hadoop叢集部署

Spark在生產環境中,主要部署在安裝Linux系統的叢集中。在linux系統中安裝Spark需要預先安裝JDK、Scala等所需要的依賴。 由於Spark是計算框架,所以需要預先在叢集內有搭建好儲存資料的持久化層,如HDFS、Hive、Cassandra等,最後可以通過啟動指令碼執行應用。

docker 安裝centos7配置hadoop叢集

$ docker pull centos ##檢視下載映象##檢視下載映象 $ doker image ls -a ##啟動容器載入映象,同時進入啟動的容器 $ docker run -it --name centos-1 centos /bin/bash

本地搭建hadoop叢集--kylin的安裝叢集部署)

kylin官方安裝文件 http://kylin.apache.org/cn/docs/install/configuration.html 總結: 1、關於麒麟高可用涉及負載均衡官網都說超出範圍了,安裝只考慮安裝的事情,其餘的先忽略 2、kylin在啟動的時候會自動檢測你本地h

本地搭建hadoop叢集--sqoop的安裝.1.4.7 使用db2

安裝 1、解壓tar包 2、進入conf目錄 3、修改配置檔案 cp -a sqoop-env-template.sh sqoop-env.sh vm sqoop-env.sh   export HADOOP_COMMON_HOME=/opt/mo

Hadoop學習筆記(三) 安裝Hadoop分散式叢集

執行環境 因為是為了學習,且只有一臺PC,只能在虛擬機器裡安裝Hadoop 軟體配置 版本 主機 Win7,記憶體8G 虛擬機器 VMware 14 Linux ubuntu-14.04.5-desktop (使用ubuntu-18或1

【大資料】安裝偽分散式Hadoop叢集

壓縮包: eclipse-jee-photon-R-linux-gtk-x86_64.tar.gz hadoop-2.9.1.tar.gz jdk-10.0.1_linux-x64_bin.tar.gz 配置主機名和網路 配置主機名: #hostnamect

【大資料】安裝完全分散式Hadoop叢集

修改主機名和網路 master: #hostnamectl set-hostname master #vi /etc/sysconfig/network-scripts/ifcfg-ens33 TYPE=Ethernet PROXY_METHOD=none BR

FusionInsight 華為hadoop叢集客戶端安裝與使用

1、客戶端的安裝     1.1、下載客戶端,如下圖所示     1.2、解壓客戶端,並且開啟NTP服務          首先檢查 service ntpd status,如果關閉需要開啟  service ntpd start     1.3、安裝客戶端。剛解

hadoop叢集方式的安裝

1、安裝jdk rpm -i  jdk 配置環境變數 Java的預設安裝路徑:/usr/java 2、免祕鑰: 首先登陸自己,生成自己的金鑰和公鑰檔案:ssh localhost 然後生成自己的公鑰和金鑰: ssh-keygen -t dsa -P '' -f

HadoopHadoop 2.7.6安裝_偽分散式叢集

本篇主要演示在Linux上安裝單節點Hadoop模式,以及偽分散式Hadoop模式。一 安裝環境作業系統:Oracle Linux Server release 6.5;Java版本:java-1.7.0-openjdk-1.7.0.45;Hadoop版本:hadoop-2.

Docker安裝Spark叢集(乾淨不含hadoop等)

  https://github.com/mvillarrealb/docker-spark-cluster 1:安裝前準備 Docker 安裝好 Docker compose 安裝好 2:構建映象  將 docker-spark-clus

hadoop叢集lzo的安裝

主要步驟: 1,安裝和更新gcc、ant(系統已經安裝的話,略去下面步驟) yum -y install gcc gcc-c++ autoconf automake tar -jxvf apache-ant-1.8.2-bin.tar.bz2 export ANT_HO

Hadoop叢集搭建-04安裝配置HDFS

Hadoop叢集搭建-03編譯安裝hadoop Hadoop叢集搭建-02安裝配置Zookeeper Hadoop叢集搭建-0

Hadoop叢集搭建-05安裝配置YARN

Hadoop叢集搭建-04安裝配置HDFS  Hadoop叢集搭建-03編譯安裝hadoop Hadoop叢集搭建-

Hadoop叢集搭建-02安裝配置Zookeeper

  Hadoop叢集搭建-05安裝配置YARN Hadoop叢集搭建-04安裝配置HDFS  Hadoo

hadoop(十)hbase資料庫+叢集搭建+Api

HBASE表結構: 建表時,不需要限定表中的欄位,只需要指定若干個列族 插入資料時,列族中可以儲存任意多個列(KV,列名&列值) 要查詢某一列具體欄位的值,需要指定的座標:列名--->行健--->列族:列名--->版本   hbase的存