1. 程式人生 > >hadoop-cdh的偽分散式

hadoop-cdh的偽分散式

一、前期的準備
1、安裝環境的準備
ip地址的配置等參考地點
2、檢視centos的位數

[root@CDHnode1 ~]# file /bin/ls
/bin/ls: ELF 64-bit LSB executable, x86-64, version 1 (SYSV), dynamically linked (uses shared libs), for GNU/Linux 2.6.32, BuildID[sha1]=3d705971a4c4544545cb78fd890d27bf792af6d4, stripped

3、解壓hadoop並設定軟鏈

[root@CDHnode1 hadoop-2.6
.0-cdh5.4.5]# ln -sf /home/hadoopcdh/soft/hadoop-2.6.0-cdh5.4.5 /opt/hadoop

4、hosts的對映檔案

[root@CDHnode1 ~]# vi /etc/hosts
192.168.146.189 CDHnode1

5、準備Hadoop專用使用者和組

[root@CDHnode1 ~]# groupadd hadoop
[root@CDHnode1 ~]# useradd -g hadoop hadoop
[root@CDHnode1 ~]# passwd hadoop
Changing password for user hadoop.
New password
: BAD PASSWORD: The password is shorter than 8 characters Retype new password: passwd: all authentication tokens updated successfully.

二、ssh的安裝
1、切換到hadoop下

[root@CDHnode1 ~]# su hadoop
[hadoop@CDHnode1 root]$ cd 
[hadoop@CDHnode1 ~]$ pwd
/home/hadoop

2、開始建立並生成目錄

建立.ssh目錄,生成金鑰
[hadoop@CDHnode
1 ~]$ mkdir .ssh [hadoop@CDHnode1 ~]$ ssh-keygen -t rsa Generating public/private rsa key pair. Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/hadoop/.ssh/id_rsa. Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub. The key fingerprint is: f0:fe:1c:b4:f8:66:ec:14:69:b2:4a:bf:6c:f0:fa:11 [email protected] The key's randomart image is: +--[ RSA 2048]----+ | | | | | . | | o . | | E = | | .. B o | | .o=.+ | | . +o*+. | | o+=== | +-----------------+ 切換到.ssh目錄下,進行檢視公鑰和私鑰 [hadoop@CDHnode1 ~]$ cd .ssh [hadoop@CDHnode1 .ssh]$ ls id_rsa id_rsa.pub 將公鑰複製到日誌檔案裡 [hadoop@CDHnode1 .ssh]$ cp id_rsa.pub authorized_keys [hadoop@CDHnode1 .ssh]$ ls authorized_keys id_rsa id_rsa.pub 退回到/home/hadoop/,來賦予許可權 [hadoop@CDHnode1 .ssh]$ cd .. [hadoop@CDHnode1 ~]$ pwd /home/hadoop [hadoop@CDHnode1 ~]$ chmod 700 .ssh [hadoop@CDHnode1 ~]$ chmod 600 .ssh/*

3、切換到root使用者下,安裝ssh外掛(openssh)

[hadoop@CDHnode1 ~]$ su root
Password: 
[root@CDHnode1 hadoop]# yum -y install openssh-clients
切換到/home/hadoop/,測試ssh無密碼訪問
[root@CDHnode1 hadoop]# su hadoop
[hadoop@CDHnode1 ~]$ ssh cdhhadoop
The authenticity of host 'cdhhadoop (192.168.146.189)' can't be established.
ECDSA key fingerprint is dc:c3:a8:6a:ac:10:63:15:43:52:51:ce:c9:9b:40:7d.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'cdhhadoop,192.168.146.189' (ECDSA) to the list of known hosts.
Last login: Sat May 27 23:08:14 2017

[[email protected] ~]$ 

三、hadoop的環境變數的設定
1、將剛改名的hadoop檔案,許可權賦給hadoop使用者

[root@CDHnode1 opt]# chown -R hadoop:hadoop hadoop
[root@CDHnode1 opt]# ls -l
total 0
lrwxrwxrwx. 1 hadoop hadoop 42 May 27 22:49 hadoop -> /home/hadoopcdh/soft/hadoop-2.6.0-cdh5.4.5
lrwxrwxrwx. 1 root   root   32 May  5 08:58 jdk1.8 -> /home/hadoopcdh/soft/jdk1.8.0_60

2、先建立hadoop資料目錄 ,將整個data目錄許可權賦予給hadoop使用者

[[email protected]CDHnode1 opt]# mkdir -p /data/dfs/name
[[email protected]CDHnode1 opt]# mkdir -p /data/dfs/data
[[email protected]CDHnode1 opt]# mkdir -p /data/tmp
[[email protected]CDHnode1 opt]# chown -R hadoop:hadoop hadoop /data
[[email protected]CDHnode1 opt]# ls -l /data
total 0
drwxr-xr-x. 4 hadoop hadoop 30 May 27 23:13 dfs
drwxr-xr-x. 2 hadoop hadoop  6 May 27 23:13 tmp

3、修改hadoop對應的配置檔案,切換到hadoop使用者,切換到hadoop目錄

[root@CDHnode1 opt]# su hadoop
[hadoop@CDHnode1 opt]$ ls
hadoop  jdk1.8
[hadoop@CDHnode1 opt]$ cd hadoop/
[hadoop@CDHnode1 hadoop]$ 

4、修改etc/hadoop/core-site.xml配置檔案,新增如下資訊
(1)、配置的是HDFS(hadoop)的分散式檔案系統的地址及埠號

<property>
                <name>fs.defaultFS</name>
                <value>hdfs://cdhhadoop:9000</value>
</property>

(2)、HDFS路徑的存放資料的公共目錄

<property>
                <name>hadoop.tmp.dir</name>
                <value>file:/data/tmp</value>
 </property>

(3)、下面配置的是,因為在hadoop1.0中引入了安全機制,所以從客戶端發出的作業提交者全變成了hadoop,不管原始提交者是哪個使用者,為了解決該問題,引入了安全違章功能,允許一個超級使用者來代替其他使用者來提交作業或者執行命令,而對外來看,執行者仍然是普通使用者。所以

配置設為任意客戶端
 <property>
                <name>hadoop.proxyuser.hadoop.hosts</name>
                <value>*</value>
 </property>
配置設為任意使用者組
 <property>
                <name>hadoop.proxyuser.hadoop.groups</name>
                <value>*</value>
</property>

5、修改etc/hadoop/hdfs-site.xml配置檔案,新增如下資訊

配置的是namenode檔案目錄
<property>
                <name>dfs.namenode.name.dir</name>
                <value>/data/dfs/name</value>
                <final>true</final>
</property>
配置的是datanode檔案目錄
<property>
                <name>dfs.datanode.data.dir</name>
                <value>/data/dfs/data</value>
                <final>true</final>
</property>
配置的是資料塊副本和HDFS許可權
<property>
                <name>dfs.replication</name>
                <value>1</value>
 </property>
 <property>
                <name>dfs.permissions</name>
                <value>false</value>
 </property>

6、修改etc/hadoop/mapred-site.xml配置檔案,新增如下資訊。

[root@CDHnode1 hadoop]# cp mapred-site.xml.template mapred-site.xml

與hadoop1.0不同的是,使用的是yarn

 <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
 </property>

7、修改etc/hadoop/yarn-site.xml配置檔案,新增如下資訊。
為了能夠執行mapreduce程式,我們需要讓.nodemanger在啟動時載入shuffle。

<property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>

</property>

8、修改etc/hadoop/slaves,新增如下資訊。

[root@CDHnode1 hadoop]# vi slaves
cdhhadoop

9、設定Hadoop環境變數
vi /etc/profile

export HADOOP_HOME=/opt/hadoop
export PATH=$HADOOP_HOME/bin:$PATH

10、格式化namenode

hadoop namenode  -format

11、啟動叢集

[hadoop@cdhhadoop hadoop]$ sbin/start-all.sh

相關推薦

Hadoop單機/分散式叢集搭建(新手向)

此文已由作者朱笑笑授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 本文主要參照官網的安裝步驟實現了Hadoop偽分散式叢集的搭建,希望能夠為初識Hadoop的小夥伴帶來借鑑意義。 環境: (1)系統環境:CentOS 7.3.1611 64位 (2)J

Hadoop分散式搭建

已正確安裝jdk環境 JDK測試安裝成功: >java -version 解壓Hadoop,建議解壓目錄:/usr/local下 免密登陸設定(如果不加免密操作,每次啟動和關閉會有多次輸入密碼過程): >ssh-keygen -t dsa -P '

Hadoop分散式的安裝及部署

文章目錄 需要的軟體及原始碼包 安裝JDK Hadoop的部署安裝 Hadoop的配置 Hadoop的使用 做Hadoop的偽分散式我們分為一下幾個步驟 需要的軟體及原始碼包 FileZil

CDH 分散式環境搭建

 安裝環境服務部署規劃 伺服器IP 192.168.1.100 192.168.1.110 192.168.1.120 HDFS NameNode

hadoop構建分散式環境時,可能的出錯處理 比如8088打不開

基於本人寫的hadoop偽分散式環境搭建講解: 連結:https://blog.csdn.net/weixin_39435629/article/details/84841252 查錯常用命令彙總: $>jps    (檢視hadoop的啟動程序) $>

Hadoop》之"踽踽獨行"(七)Hadoop分散式叢集搭建

在上一章我給大家介紹了Hadoop的單節點叢集本地模式的搭建,在這一章中,我們來了解一下Hadoop偽分散式叢集的搭建與用途。 一、Hadoop偽分散式叢集(pseudo distributed cluster) 1、簡介 hadoop的pseudo distributed&n

HadoopHadoop單機分散式的安裝和配置

因為lz的linux系統已經安裝好了很多開發環境,可能下面的步驟有遺漏。之前是在docker中配置的hadoop單機偽分散式[ ],並且在docker只有root使用者,所有沒有許可權問題存在。這裡直接在linux下配置,主要是為了能用netbeans ide除錯had

Hadoop cdh版本分散式叢集搭建圖文教程

有很多想學習大資料的朋友,但苦於找不到系統的學習資料,搭建一個hadoop叢集都要耽擱很多時間。下面我給大家一個搭建大資料的圖文教程。教程中需要用到的軟體和資料我已經準備好了,下面是分享連結,直接下載即可。 連結:http://pan.baidu.com/s/1c1PW

hadoop-安裝分散式hdfs

硬體環境:centos 6.5,jdk7,win7 64位,vmware11 1,jdk安裝,配置環境變數  vi /etc/profile export JAVA_HOME=/usr/local/jdk7 export HADOOP_PREFIX=/opt/zy/had

Hadoop系列(一): Hadoop分散式安裝

在進行Hadoop的偽分散式安裝之前,我們首先對Hadoop的一些基礎的要點進行一下說明。關於Hadoop的詳細概念,我們可以在搜狗百科上找到很詳細的答案。 Hadoop是由Apache基金會開發的一個分散式檔案系統,用來儲存,訪問和計算海量資料的框架。 Hadoop

# Hadoop安裝(分散式)常見問題解決及Hadoop常用命令

Hadoop安裝常見問題 一、許可權不足問題 對於hadoop安裝檔案的許可權不足會出現以下的錯誤 錯誤:Cannot create directory /usr/local/hadoop/hadoop-2.8.3/tmp/dfs/name/current 解決

[Hadoop]Hadoop+HBase 分散式安裝配置

(一)hadoop偽分散式的配置:        這個也可以參考《hadoop權威指南》上面寫的很全面,這裡再說一遍:   我的機器配置環境:        OS:Ubuntu10.10  ,hadoop版本:hadoop-0.20.2(下載網址: http://apache.etoak.com//

Hadoop單機分散式模式

<property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> <property> <name>

虛擬機器下Linux系統Hadoop單機/分散式配置:Hadoop2.5.2+Ubuntu14.04(半原創)

系統: Ubuntu 14.04 64bitHadoop版本: Hadoop 2.5.2 (stable)JDK版本: JDK 1.6 虛擬機器及Ubuntu安裝 1. 下載並安裝 VMware workstation 11   下載地址:https://my.vmwar

hadoop-cdh分散式

一、前期的準備 1、安裝環境的準備 ip地址的配置等參考地點 2、檢視centos的位數 [root@CDHnode1 ~]# file /bin/ls /bin/ls: ELF 64-bit LSB executable, x86-64, vers

cdh版本的hadoop安裝及配置(分散式模式) MapReduce配置 yarn配置

安裝hadoop需要jdk依賴,我這裡是用jdk8jdk版本:jdk1.8.0_151hadoop版本:hadoop-2.5.0-cdh5.3.6hadoop下載地址:連結:https://pan.baidu.com/s/1qZNeVFm 密碼:cilnjdk下載地址:連結:

linux下安裝hadoop分散式叢集

1.    在虛擬機器上安裝了centos7, 下載hadoop。http://hadoop.apache.org/releases.html  這裡選擇2.7版本而不是3.0版本 不選3.0版本的理由,檢視版本更新日誌

基於分散式hadoop搭建完全分散式

上篇部落格中,我們搭建了單機版和偽分散式版的hadoop。但是在真正的開發中都是用的完全分散式hadoop環境。 因此今天我們就來搭建一下完全分散式hadoop環境。 前提:有四臺解壓了hadoop和javajdk,且其中一臺作為namenode需要已經搭建成了偽分散式,其他三臺作為data

linux搭建單機版和分散式hadoop

前提:我使用的window作業系統,然後下載的VMware建立虛擬機器,然後在xshell中進行操作,並使用filezilla進行檔案的上傳。這些可以自行百度搜索下載。 單機版hadoop環境搭建 首先我們用VMware建立一個新的虛擬機器。建立過程不在細說了。 建立完成後,user

搭建Hadoop分散式環境(筆記)

軟硬體環境 CentOS 7.2 64 位 OpenJDK- 1.8 Hadoop- 2.7 關於本教程的說明 雲實驗室雲主機自動使用 root 賬戶登入系統,因此本教程中所有的操作都是以 root 使用者來執行的。若要在自己的雲主機上進行本教程的實驗,為了系統安全,建議