Hadoop叢集的安裝 二 安裝hadoop叢集
1 解壓hadoop並配置相關環境變數
以hadoop使用者名稱解壓hadoop壓縮檔案
JAVA_HOME=/usr/java/jdk1.8.0_144
JRE_HOME=/usr/java/jdk1.8.0_144/jre
HADOOP_HOME=/home/hadoop/hadoop-2.9.0
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/etc/hadoop
export JAVA_HOME JRE_HOME CLASS_PATH HADOOP_HOME PATH
使用命令使配置生效:
source /etc/profile
2 修改hadoop-env.sh新增jdk環境
export JAVA_HOME=/usr/java/jdk1.8.0_144
hadoop有三種執行模式:
獨立(本地)模式:
無需執行任何守護程序,所有程式都在同一個JVM上執行,適合開發階段;
偽分佈模式:
hadoop守護程序執行在本地機器上,模擬一個小規模的叢集。
全分散式模式:
hadoop守護程序執行在一個叢集上。
核心配置引數:
- 指定Hadoop的預設檔案為:hdfs core-site.xml檔案中新增
- 指定hdfs的namenode節點為哪臺機器 core-site.xml檔案中新增
- 指定namenode儲存元資料的本地目錄 hdfs-site.xml檔案中新增
- 指定DataNode存放檔案塊的本地目錄 hdfs-site.xml檔案中新增
3 修改core-site.xml檔案
hadoop core的配置項,如hdfs、MapReduce和YARN常用的I/O設定等;
<configuration>
<property>
<name>fs.defaultFS</name> #Hadoop預設訪問的檔案系統為hdfs
<value>hdfs://master:9000/</value>#指定的namenode的URI
</property>
執行hdfs需要將一臺機器指定為namenode,屬性fs.defaultFS描述hdfs檔案系統的uri,預設埠是8020.
<!–指定hadoop執行時產生檔案的儲存路徑–>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.9.0/wutemp</value>
</property>
</configuration>
4 修改hdfs-site.xml檔案
hdfs-site.xml配置檔案:
hadoop守護程序的配置項,包括namenode、輔助namenode和datanode等;
<!--NameNode會持久儲存名稱空間和事務日誌-->
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/hadoop-2.9.0/wudata/name</value>
</property>
dfs.namenode.name.dir:
namenode儲存永久性的元資料的目錄列表。namenode在列表上的各個目錄中都存放相同的元資料檔案;
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/hadoop-2.9.0/wudata/data</value>
</property>
dfs.datanode.data.dir:
datanode存放資料塊的目錄列表。各個資料塊分別存放於某一個目錄中;
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
dfs.replication:
設定檔案備份係數,預設3;
<property>
<name>dfs.secondary.http.address</name>
<value>slaveb:50090</value>
</property>
</configuration>
5 mapred-site.xml檔案
mapred-site.xml配置檔案:
MapReduce守護程序的配置項,包括作業歷史伺服器;
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
名稱mapreduce.framework.name:
指的是使用yarn執行mapreduce程式,啟動了HDFS之後,就可以啟動yarn了。執行命令start-yarn.sh即可啟動MapReduce叢集
6 yarn-site.xml檔案
Yarn守護程序的配置項,包括資源管理器、web應用代理伺服器和節點管理器;
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
yarn.resourcemanager.hostname屬性:
執行資源管理器的機器主機名,預設值:0.0.0.0
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
yarn.nodemanager.aux-services屬性:
節點管理器執行的附加服務列表。NodeManager上執行的附屬服務。需配置成mapreduce_shuffle,才可執行MapReduce程式;預設情況下,不指定附加服務。
7 為yarn新增 客戶端計算機名稱
修改/home/hadoop/hadoop-2.9.0/etc/hadoop/slaves
slavea
slaveb
8 啟動hdfs檔案系統
首次使用hadoop前,必須格式化檔案系統,輸入如下命令:
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall開機啟動
hdfs namenode -format #namenode的格式化,第一次執行前敲入命令
9 啟動守護程序
hadoop-daemon.sh start namenode
測試namenode程序情況:
jps
可以使用守護程序:
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver
10 終止守護程序
mr-jobhistory-daemon.sh stop historyserver
stop-yarn.sh
stop-dfs.sh
11建立使用者目錄
hadoop fs -mkdir -P /usr/$USER
相關推薦
Hadoop叢集的安裝 二 安裝hadoop叢集
1 解壓hadoop並配置相關環境變數 以hadoop使用者名稱解壓hadoop壓縮檔案 JAVA_HOME=/usr/java/jdk1.8.0_144 JRE_HOME=/usr/java/jdk1.8.0_144/jre HADOOP_HOME=/home/ha
Spark學習筆記(二) 安裝Hadoop單節點叢集
安裝Hadoop單節點叢集 1. 下載並解壓Hadoop 1.1 下載Hadoop 1.2 解壓Hadoop包 1.3 將解壓的資料夾重新命名為Hadoop,然後拷貝到/usr/local下 2. 設定Hadoop環境變數
大資料教程(二)—— Hadoop叢集壞境CentOS安裝
前言 前面我們主要分析了搭建Hadoop叢集所需要準備的內容和一些提前規劃好的項,本篇我們主要來分析如何安裝CentOS作業系統,以及一些基礎的設定,閒言少敘,我們進入本篇的正題。 技術準備 VMware虛擬機器、CentOS 6.8 64 bit 安裝流程 因為我的筆記本
Docker實戰之安裝配置Hadoop-2.5.2完全分散式叢集
環境配置 VM:VMware Workstation OS:Ubuntu 14.04 LTS Hadoop:hadoop-2.5.2 Hadoop叢集規劃 172.17.0.2 hadoop-master 172.17.
spark-2.2.0 叢集安裝部署以及hadoop叢集部署
Spark在生產環境中,主要部署在安裝Linux系統的叢集中。在linux系統中安裝Spark需要預先安裝JDK、Scala等所需要的依賴。 由於Spark是計算框架,所以需要預先在叢集內有搭建好儲存資料的持久化層,如HDFS、Hive、Cassandra等,最後可以通過啟動指令碼執行應用。
docker 安裝centos7配置hadoop叢集
$ docker pull centos ##檢視下載映象##檢視下載映象 $ doker image ls -a ##啟動容器載入映象,同時進入啟動的容器 $ docker run -it --name centos-1 centos /bin/bash
本地搭建hadoop叢集--kylin的安裝(叢集部署)
kylin官方安裝文件 http://kylin.apache.org/cn/docs/install/configuration.html 總結: 1、關於麒麟高可用涉及負載均衡官網都說超出範圍了,安裝只考慮安裝的事情,其餘的先忽略 2、kylin在啟動的時候會自動檢測你本地h
本地搭建hadoop叢集--sqoop的安裝.1.4.7 使用db2
安裝 1、解壓tar包 2、進入conf目錄 3、修改配置檔案 cp -a sqoop-env-template.sh sqoop-env.sh vm sqoop-env.sh export HADOOP_COMMON_HOME=/opt/mo
Hadoop學習筆記(三) 安裝Hadoop分散式叢集
執行環境 因為是為了學習,且只有一臺PC,只能在虛擬機器裡安裝Hadoop 軟體配置 版本 主機 Win7,記憶體8G 虛擬機器 VMware 14 Linux ubuntu-14.04.5-desktop (使用ubuntu-18或1
【大資料】安裝偽分散式Hadoop叢集
壓縮包: eclipse-jee-photon-R-linux-gtk-x86_64.tar.gz hadoop-2.9.1.tar.gz jdk-10.0.1_linux-x64_bin.tar.gz 配置主機名和網路 配置主機名: #hostnamect
【大資料】安裝完全分散式Hadoop叢集
修改主機名和網路 master: #hostnamectl set-hostname master #vi /etc/sysconfig/network-scripts/ifcfg-ens33 TYPE=Ethernet PROXY_METHOD=none BR
FusionInsight 華為hadoop叢集客戶端安裝與使用
1、客戶端的安裝 1.1、下載客戶端,如下圖所示 1.2、解壓客戶端,並且開啟NTP服務 首先檢查 service ntpd status,如果關閉需要開啟 service ntpd start 1.3、安裝客戶端。剛解
hadoop叢集方式的安裝
1、安裝jdk rpm -i jdk 配置環境變數 Java的預設安裝路徑:/usr/java 2、免祕鑰: 首先登陸自己,生成自己的金鑰和公鑰檔案:ssh localhost 然後生成自己的公鑰和金鑰: ssh-keygen -t dsa -P '' -f
【Hadoop】Hadoop 2.7.6安裝_偽分散式叢集
本篇主要演示在Linux上安裝單節點Hadoop模式,以及偽分散式Hadoop模式。一 安裝環境作業系統:Oracle Linux Server release 6.5;Java版本:java-1.7.0-openjdk-1.7.0.45;Hadoop版本:hadoop-2.
Docker安裝Spark叢集(乾淨不含hadoop等)
https://github.com/mvillarrealb/docker-spark-cluster 1:安裝前準備 Docker 安裝好 Docker compose 安裝好 2:構建映象 將 docker-spark-clus
hadoop叢集lzo的安裝
主要步驟: 1,安裝和更新gcc、ant(系統已經安裝的話,略去下面步驟) yum -y install gcc gcc-c++ autoconf automake tar -jxvf apache-ant-1.8.2-bin.tar.bz2 export ANT_HO
Hadoop叢集搭建-04安裝配置HDFS
Hadoop叢集搭建-03編譯安裝hadoop Hadoop叢集搭建-02安裝配置Zookeeper Hadoop叢集搭建-0
Hadoop叢集搭建-05安裝配置YARN
Hadoop叢集搭建-04安裝配置HDFS Hadoop叢集搭建-03編譯安裝hadoop Hadoop叢集搭建-
Hadoop叢集搭建-02安裝配置Zookeeper
Hadoop叢集搭建-05安裝配置YARN Hadoop叢集搭建-04安裝配置HDFS Hadoo
hadoop(十二)hbase資料庫+叢集搭建+Api
HBASE表結構: 建表時,不需要限定表中的欄位,只需要指定若干個列族 插入資料時,列族中可以儲存任意多個列(KV,列名&列值) 要查詢某一列具體欄位的值,需要指定的座標:列名--->行健--->列族:列名--->版本 hbase的存