1. 程式人生 > >hadoop叢集的安裝 一 準備工作

hadoop叢集的安裝 一 準備工作

Hadoop叢集的安裝


1 安裝jdk並配置環境變數
2 除錯網路、ssh安裝和為hadoop建立安裝使用者並免密
3 下載hadoop並解壓
4 修改配置檔案(並修改環境變數)
5 克隆hadoop節點
6 初始化hdfs namenode
7 啟動hadoop(yarn,hdfs)

a) 安裝Java

b) 建立unix使用者賬號及網路環境配置

c) 安裝hadoop

d) SSH配置

e) 配置hadoop

f) 格式化HDFS檔案系統

g) 啟動和停止守護程序

2 CenterOS安裝Hadoop

以root身份在centerOS安裝jdk

    在/usr目錄下建立java目錄

    mkdir   /usr/java

    cd   /usr/java

    將下載的 jdk-8-linux-x64.tar.gz拷貝到/usr/java目錄下並解壓縮

    tar -zxvf  jdk-8-linux-x64.tar.gz

    vi /etc/profile
    追加內容
    JAVA_HOME=/usr/java/jdk1.8.0_144
    JRE_HOME=/usr/java/jdk1.8.0_144/jre
    CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
    PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
    export JAVA_HOME JRE_HOME CLASS_PATH PATH

    執行source命令是環境配置檔案修改生效:

          source /etc/profile

    測試jdk是否安裝成功:命令

         java -version

2.2 建立Unix賬號

  A  我們為hadoop建立特定的賬號,專門管理hadoop

     以root身份,執行建立賬號命令:

     # useradd hadoop    

       注意:使用者賬號名稱隨意,不一定必須是hadoop,命令成功後,會生成hadoop賬號名,及組名hadoop;

     接著,修改賬號登入密碼:

      #passwd hadoop

        按要求輸入兩次相同密碼即可;

 B   修改使用者及網路環境

      以root身份關閉防火牆,使用hadoop各個節點能夠相互通訊
        systemctl stop firewalld.service #停止firewall

        systemctl disable firewalld.service #禁止firewall開機啟動

C  修改網絡卡配置,建議配置為靜態IP

    以root身份配置網絡卡配置檔案

    vi /etc/sysconfig/network-scripts/ifcfg-ens33

       修改內容如下:

       BOOTPROTO="static"

       ONBOOT="yes"
       IPADDR=192.168.226.129
       GATEWAY=192.168.226.2
        NETMASK=255.255.255.0
        DNS1=192.168.226.2

D   修改機器名稱

   以root身份修改/etc/hosts檔案內容

    每一個機器ip 機器名稱
    192.168.1.100 master
    192.168.1.101 slavea
    192.168.1.102 slaveb

    儲存檔案

   以root身份修改對應機器名稱

    hostname master   臨時改變

    vi /etc/hostname    永久改變
E 修改網路配置
    以root身份修改/etc/sysconfig/network
    # Created by anaconda
    NETWORKING=yes
    HOSTNAME=master
    使用如下命令使剛才的修改/etc/sysconfig/network生效
    source /etc/sysconfig/network

    service network restart

   注意:修改其他節點機器

 F 以root身份修改hadoop賬號,新增到sudoers

   注意:

    建立的hadoop使用者需要擁有臨時管理員身份

    修改/etc/sudoers
    新增內容
    hadoop ALL=(ALL) NOPASSWD: ALL

    重啟使之生效  

2.3  SSH配置

    Hadoop控制指令碼(並非守護程序)依賴SSH執行整個叢集的操作;

   A:以root身份centerOs安裝啟動ssh服務
    SSH 為 Secure Shell 的縮寫,SSH 為建立在應用層基礎上的安全協議。SSH 是目前較可靠,專為遠端登入會話和其他網路服務提供安全性的協議。
    測試centeros檢查是否安裝了SSH包
    rpm -qa|grep ssh
    啟動ssh服務

    systemctl restart sshd.service

 B: 以root身份修改sshd服務
    需要編輯/etc/ssh/sshd_config開啟sshd服務.
    放開標註的文件(去掉#):
    #RSAAuthentication yes
    #PubkeyAuthentication yes
    重啟服務,使剛才的修改生效(centos7上命令)

    systemctl restart sshd.service

 C:注意,以hadoop賬號身份登入,並操作 ssh免密
    ① 為每臺機器生成金鑰
    命令:ssh-keygen - 生成、管理和轉換認證金鑰
    引數
    -t type
    指定要建立的金鑰型別。
    可以使用:“rsa1”(SSH-1) “rsa”(SSH-2) “dsa”(SSH-2)-P passphrase
    提供(舊)密語
    輸入命令:
    ssh-keygen -t 'RSA'
    在/home/使用者名稱/.ssh/目錄下生成金鑰檔案;
    ② 複製公鑰內容到authorized_keys檔案;
    命令:
    cat id_rsa.pub >> authorized_keys
    chmod 644 authorized_keys
    ③ 將Slave1和Slave2中的>authorized_keys內容複製到Master的authorized_keys檔案中
    ④ 將Master中的authorized_keys檔案複製Slave1和Slave2中
    scp authorized_keys [email protected]:/hadoop/.ssh/
    ⑤ 測試使用ssh進行無密碼登入
    ssh Slave1 ssh登陸遠端伺服器
    exit 並退出遠端登陸

注意:

 遠端拷貝命令

    scp 檔名 使用者名稱@遠端ip:/路徑/
    scp命令提供選項:
    -p 拷貝檔案的時候保留原始檔簡歷的時間;
    -q 執行檔案拷貝時,不顯示任何提示訊息;
    -r 拷貝整個目錄;

    -v 拷貝檔案時,顯示提示資訊;

2.4  以hadoop賬號身份登入,安裝hadoop叢集
2.4.1 解壓hadoop並配置相關環境變數
    以hadoop使用者名稱解壓hadoop壓縮檔案
    JAVA_HOME=/usr/java/jdk1.8.0_144
    JRE_HOME=/usr/java/jdk1.8.0_144/jre
    HADOOP_HOME=/home/hadoop/hadoop-2.9.0
    CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib    PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/etc/hadoop
    export JAVA_HOME JRE_HOME CLASS_PATH HADOOP_HOME PATH


    使用命令使配置生效:
    source /etc/profile
2.4.2 修改hadoop-env.sh新增jdk環境
    export JAVA_HOME=/usr/java/jdk1.8.0_144
    hadoop有三種執行模式:
    獨立(本地)模式:
    無需執行任何守護程序,所有程式都在同一個JVM上執行,適合開發階段;
    偽分佈模式:
    hadoop守護程序執行在本地機器上,模擬一個小規模的叢集。
    全分散式模式:
    hadoop守護程序執行在一個叢集上。
2.4.3 修改core-site.xml檔案
    hadoop core的配置項,如hdfs、MapReduce和YARN常用的I/O設定等;
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
    </property>
    執行hdfs需要將一臺機器指定為namenode,屬性fs.defaultFS描述hdfs檔案系統的uri,預設埠是8020.

    <!–指定hadoop執行時產生檔案的儲存路徑–>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/hadoop/hadoop-2.9.0/wutemp</value>
    </property>
2.4.4 修改hdfs-site.xml檔案
    hdfs-site.xml配置檔案:
    hadoop守護程序的配置項,包括namenode、輔助namenode和datanode等;
    <!--NameNode會持久儲存名稱空間和事務日誌-->
         <property>
           <name>dfs.namenode.name.dir</name>
           <value>/home/hadoop/hadoop-2.9.0/wudata/name</value>
         </property>
    dfs.namenode.name.dir:
    namenode儲存永久性的元資料的目錄列表。namenode在列表上的各個目錄中都存放相同的元資料檔案;

    <property>
         <name>dfs.datanode.data.dir</name>
         <value>/home/hadoop/hadoop-2.9.0/wudata/data</value>
    </property>
    dfs.datanode.data.dir:
    datanode存放資料塊的目錄列表。各個資料塊分別存放於某一個目錄中;

    <property>
      <name>dfs.replication</name>
      <value>3</value>
    </property>
    dfs.replication:
    設定檔案備份係數,預設3;


    <property>
      <name>dfs.secondary.http.address</name>
      <value>slavea:50090</value>
    </property>
2.4.5 mapred-site.xml檔案
    mapred-site.xml配置檔案:
    MapReduce守護程序的配置項,包括作業歷史伺服器;
    <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
    </property>
    名稱mapreduce.framework.name:
    指的是使用yarn執行mapreduce程式,啟動了HDFS之後,就可以啟動yarn了。執行命令start-yarn.sh即可啟動MapReduce叢集
2.4.6 yarn-site.xml檔案
    Yarn守護程序的配置項,包括資源管理器、web應用代理伺服器和節點管理器;
    <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>master</value>
    </property>
    yarn.resourcemanager.hostname屬性:
    執行資源管理器的機器主機名,預設值:0.0.0.0

    <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
    </property>
    yarn.nodemanager.aux-services屬性:
    節點管理器執行的附加服務列表。NodeManager上執行的附屬服務。需配置成mapreduce_shuffle,才可執行MapReduce程式;預設情況下,不指定附加服務。
2.4.7 為yarn新增 客戶端計算機名稱
    修改/home/hadoop/hadoop-2.9.0/etc/hadoop/slaves
    master
    slavea
    slaveb

2.5 格式化HDFS檔案系統並 啟動hdfs檔案系統
 A:  首次使用hadoop前,必須格式化檔案系統,輸入如下命令:

    hdfs namenode -format

 B:  啟動和停止守護程序

    start-dfs.sh #啟動hdfs

    start-yarn.sh #啟動yarn

C:終止守護程序
    stop-yarn.sh
    stop-dfs.sh

注意: 啟動守護程序
    hadoop-daemon.sh start namenode
    測試namenode程序情況:
    jps
    可以使用守護程序:
    start-dfs.sh
    啟動dfs報錯,如下:The authenticity of host 'master (192.168.223.110)' can't be established:
    解決方法:
    好記心不如爛筆頭,ssh登入 The authenticity of host 192.168.0.xxx can't be established. 的問題,即可不修改/etc/ssh/ssh_config檔案的配置而解決此問題:
    ssh  -o StrictHostKeyChecking=no  192.168.0.xx
    start-yarn.sh
    mr-jobhistory-daemon.sh start historyserver

2.6 測試叢集是否搭建成功
    命令:
    hdfs dfsadmin -report
    在瀏覽器中測試hdfs
    http://192.168.1.100:50070

相關推薦

hadoop叢集安裝 準備工作

Hadoop叢集的安裝 1 安裝jdk並配置環境變數 2 除錯網路、ssh安裝和為hadoop建立安裝使用者並免密 3 下載hadoop並解壓 4 修改配置檔案(並修改環境變數) 5 克隆hadoop節點 6 初始化hdfs namenode 7 啟動hadoop(yar

星雲鏈智能合約開發():Mac下安裝準備工作

星雲鏈開發環境安裝 nebulasio安裝 星雲鏈安裝 星雲鏈開發 智能合約開發 Homebrew安裝 包管理工具可以讓你安裝和更新程序變得更方便,目前在Mac系統中最受歡迎的包管理工具是 Homebrew. 我們安裝Homebrew是為了安裝星雲鏈開發環境時更方便快捷。 安裝方法 第一步

【搭建Hadoop叢集篇成高手系列01】hadoop執行環境的搭建篇——虛擬機器準備

版權宣告:本文為博主原創文章,未經博主允許不得轉載。 https://blog.csdn.net/wx1528159409 目錄 1. 在VMware Workstation下安裝CentOs,新建虛擬機器並安裝VMtools 2. 修改虛擬機器IP,聯網並連線Xshell 3

從零搭建Hadoop叢集)——離線安裝YUM源搭建

概述 Cloudera版本(Cloudera’s Distribution Including Apache Hadoop,簡稱“CDH”),基於Web的使用者管理介面,支援大部分Hadoop元件,包括HDFS、YARN、Hive、 Hbase、Zookeep

hadoop叢集搭建():系統安裝(centos7+vmware12)

叢集作業系統安裝(centos7+vmware12) 環境說明 作業系統 CentOS-7-x86_64-DVD-1611下載地址:官網 虛擬機器 VMware Workstat

AWS上搭建Hadoop叢集)——單機安裝Hadoop

課堂專案中實現了在AWS上搭建Hadoop叢集進行資料分析,過程中間不免遇到眾多問題,在此總結以供各位參考。 建立EC2例項 亞馬遜AWS服務想必大家都有所瞭解,這裡略過註冊過程(為了拿student credit還是花了一番功夫)。在EC2的介面上,

快速上手Linux():Linux簡介、安裝準備工作

1.Linux簡介 1.1不同版本 CentOS Ubuntu Redhat 1.2Linux能夠做什麼? 1.3Linux的學習方法 給自己一個Linux環境 先自己嘗試搜尋解決問題 學會讀懂Linux的錯誤提示 1.4與Windows區別 沒

Hadoop詳細安裝()

註冊機 卡頓 ron nbsp clas 光盤映像 span 否則 程序 配置Linux開發環境(hadoop-2.6.4) 一.準備工具 VMware-workstation-10.0.1註冊機 CentOS-6.5-x86_64-bin-DVD1 jdk-7u79-li

vmware中hadoop叢集安裝指南

1、準備Linux環境 1.0先將虛擬機器的網路模式選為NAT 1.1修改主機名         vi /etc/sysconfig/network          &n

hadoop叢集安裝20181016

安裝jdk 一、通過ppa源下載: 1.新增ppa元, sudo add-apt-repository ppa:webupd8team/java #等待一會兒 sudo apt-get update 2.安裝oracle-java-installer sudo apt-get install

Hadoop叢集搭建:Single node cluster

Hadoop叢集搭建一:Single node cluster 本文主要介紹在單個ubantu機器上搭建hadoop叢集。 1.ubuntu虛擬機器安裝 採用Vmware workstation10工具來安裝ubuntu系統,ubuntu使用的是64位的18.04-desktop版本

Hadoop叢集安裝Pig

下載壓縮包:http://www.apache.org/dyn/closer.cgi/pig 解壓: tar -zxvf pig-0.17.0.tar.gz -C ~/ 配置: 在 ~/.bashrc 檔案末尾新增,其中HADOOP_HOME為Hadoop安裝路徑,如HA

雲端安裝Oracle準備工作

本地 yum源 pos .repo 配置yum 磁盤 政府部門 lin enable 最近很多政府部門業務系統都上雲端了,當然是政府雲,數據庫都需要遷移,安裝前的配置略有不同,做一個記錄。 掛載本地鏡像,配置本地yum源,遠程雲端安裝數據庫準備工作如下 1、創建掛載目錄

hadoop叢集安裝前環境的配置

1.1增加hadoop使用者 一)建立一個admin使用者 [[email protected] home]# adduser hadoop 沒輸出?沒有輸出在linux下就是操作正確 (二)為admin使用者設定密碼 [[email protected]

1.Hadoop叢集安裝部署

Hadoop叢集安裝部署 1.介紹 (1)架構模型 (2)使用工具 VMWARE cenos7 Xshell Xftp jdk-8u91-linux-x64.rpm hadoop-2.7.3.tar.gz 2.安裝步驟 (1)部署master 建立一臺虛擬機器 Xftp傳輸jdk、hadhoop安裝

2.Hadoop叢集安裝進階

Hadoop進階 1.配置SSH免密 (1)修改slaves檔案 切換到master機器,本節操作全在master進行。 進入/usr/hadoop/etc/hadoop目錄下,找到slaves檔案,修改: slave1 slave2 slave3 (2)傳送公鑰 進入根目錄下的.ssh目錄: 生成公私鑰

Hadoop叢集安裝配置

Hadoop的安裝分為單機方式、偽分散式方式 和 完全分散式方式。 單機模式 : Hadoop的預設模式。當首次解壓Hadoop的原始碼包時,Hadoop無法瞭解硬體安裝環境,便保守地選擇了最小配置。在這種預設模式下所有3個XML檔案均為空。當配置檔案為空時,Hadoop會完全執行在本地

VMWare14中Hadoop叢集安裝記錄

標籤(空格分隔): Hadoop --- 軟體: [VMWare14](https://pan.baidu.com/s/1_fZPVguQGPbXH-fMmc68YQ)  (提取碼:2rsq), [CentOS 7](http://isoredirect.centos.

Hadoop叢集安裝的簡易操作

基於Hadoop分散式叢集的搭建 對於Hadoop叢集的搭建,一直處於摸索狀態,但這個在資料探勘中確實相當的重要,所以總結如下: ssh免密登入 安裝ssh客戶端 $ sudo apt-get install openssh-client 安裝完客戶端後

Hadoop叢集安裝四大模式

叢集的安裝模式:       1.單機模式:只需要解壓即可用,沒有分散式的檔案系統,也沒有namenode datanode Secondar等,檔案系統就是linux/widows的本地檔案系統。 用於:程式碼除錯       2.偽分散式:有相關的hdfs或yar