hadoop-cdh的偽分散式
一、前期的準備
1、安裝環境的準備
ip地址的配置等參考地點
2、檢視centos的位數
[root@CDHnode1 ~]# file /bin/ls
/bin/ls: ELF 64-bit LSB executable, x86-64, version 1 (SYSV), dynamically linked (uses shared libs), for GNU/Linux 2.6.32, BuildID[sha1]=3d705971a4c4544545cb78fd890d27bf792af6d4, stripped
3、解壓hadoop並設定軟鏈
[root@CDHnode1 hadoop-2.6 .0-cdh5.4.5]# ln -sf /home/hadoopcdh/soft/hadoop-2.6.0-cdh5.4.5 /opt/hadoop
4、hosts的對映檔案
[root@CDHnode1 ~]# vi /etc/hosts
192.168.146.189 CDHnode1
5、準備Hadoop專用使用者和組
[root@CDHnode1 ~]# groupadd hadoop
[root@CDHnode1 ~]# useradd -g hadoop hadoop
[root@CDHnode1 ~]# passwd hadoop
Changing password for user hadoop.
New password :
BAD PASSWORD: The password is shorter than 8 characters
Retype new password:
passwd: all authentication tokens updated successfully.
二、ssh的安裝
1、切換到hadoop下
[root@CDHnode1 ~]# su hadoop
[hadoop@CDHnode1 root]$ cd
[hadoop@CDHnode1 ~]$ pwd
/home/hadoop
2、開始建立並生成目錄
建立.ssh目錄,生成金鑰
[hadoop@CDHnode 1 ~]$ mkdir .ssh
[hadoop@CDHnode1 ~]$ ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
f0:fe:1c:b4:f8:66:ec:14:69:b2:4a:bf:6c:f0:fa:11 [email protected]
The key's randomart image is:
+--[ RSA 2048]----+
| |
| |
| . |
| o . |
| E = |
| .. B o |
| .o=.+ |
| . +o*+. |
| o+=== |
+-----------------+
切換到.ssh目錄下,進行檢視公鑰和私鑰
[hadoop@CDHnode1 ~]$ cd .ssh
[hadoop@CDHnode1 .ssh]$ ls
id_rsa id_rsa.pub
將公鑰複製到日誌檔案裡
[hadoop@CDHnode1 .ssh]$ cp id_rsa.pub authorized_keys
[hadoop@CDHnode1 .ssh]$ ls
authorized_keys id_rsa id_rsa.pub
退回到/home/hadoop/,來賦予許可權
[hadoop@CDHnode1 .ssh]$ cd ..
[hadoop@CDHnode1 ~]$ pwd
/home/hadoop
[hadoop@CDHnode1 ~]$ chmod 700 .ssh
[hadoop@CDHnode1 ~]$ chmod 600 .ssh/*
3、切換到root使用者下,安裝ssh外掛(openssh)
[hadoop@CDHnode1 ~]$ su root
Password:
[root@CDHnode1 hadoop]# yum -y install openssh-clients
切換到/home/hadoop/,測試ssh無密碼訪問
[root@CDHnode1 hadoop]# su hadoop
[hadoop@CDHnode1 ~]$ ssh cdhhadoop
The authenticity of host 'cdhhadoop (192.168.146.189)' can't be established.
ECDSA key fingerprint is dc:c3:a8:6a:ac:10:63:15:43:52:51:ce:c9:9b:40:7d.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'cdhhadoop,192.168.146.189' (ECDSA) to the list of known hosts.
Last login: Sat May 27 23:08:14 2017
[[email protected] ~]$
三、hadoop的環境變數的設定
1、將剛改名的hadoop檔案,許可權賦給hadoop使用者
[root@CDHnode1 opt]# chown -R hadoop:hadoop hadoop
[root@CDHnode1 opt]# ls -l
total 0
lrwxrwxrwx. 1 hadoop hadoop 42 May 27 22:49 hadoop -> /home/hadoopcdh/soft/hadoop-2.6.0-cdh5.4.5
lrwxrwxrwx. 1 root root 32 May 5 08:58 jdk1.8 -> /home/hadoopcdh/soft/jdk1.8.0_60
2、先建立hadoop資料目錄 ,將整個data目錄許可權賦予給hadoop使用者
[[email protected]CDHnode1 opt]# mkdir -p /data/dfs/name
[[email protected]CDHnode1 opt]# mkdir -p /data/dfs/data
[[email protected]CDHnode1 opt]# mkdir -p /data/tmp
[[email protected]CDHnode1 opt]# chown -R hadoop:hadoop hadoop /data
[[email protected]CDHnode1 opt]# ls -l /data
total 0
drwxr-xr-x. 4 hadoop hadoop 30 May 27 23:13 dfs
drwxr-xr-x. 2 hadoop hadoop 6 May 27 23:13 tmp
3、修改hadoop對應的配置檔案,切換到hadoop使用者,切換到hadoop目錄
[root@CDHnode1 opt]# su hadoop
[hadoop@CDHnode1 opt]$ ls
hadoop jdk1.8
[hadoop@CDHnode1 opt]$ cd hadoop/
[hadoop@CDHnode1 hadoop]$
4、修改etc/hadoop/core-site.xml配置檔案,新增如下資訊
(1)、配置的是HDFS(hadoop)的分散式檔案系統的地址及埠號
<property>
<name>fs.defaultFS</name>
<value>hdfs://cdhhadoop:9000</value>
</property>
(2)、HDFS路徑的存放資料的公共目錄
<property>
<name>hadoop.tmp.dir</name>
<value>file:/data/tmp</value>
</property>
(3)、下面配置的是,因為在hadoop1.0中引入了安全機制,所以從客戶端發出的作業提交者全變成了hadoop,不管原始提交者是哪個使用者,為了解決該問題,引入了安全違章功能,允許一個超級使用者來代替其他使用者來提交作業或者執行命令,而對外來看,執行者仍然是普通使用者。所以
配置設為任意客戶端
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
配置設為任意使用者組
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
5、修改etc/hadoop/hdfs-site.xml配置檔案,新增如下資訊
配置的是namenode檔案目錄
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/dfs/name</value>
<final>true</final>
</property>
配置的是datanode檔案目錄
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/dfs/data</value>
<final>true</final>
</property>
配置的是資料塊副本和HDFS許可權
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
6、修改etc/hadoop/mapred-site.xml配置檔案,新增如下資訊。
[root@CDHnode1 hadoop]# cp mapred-site.xml.template mapred-site.xml
與hadoop1.0不同的是,使用的是yarn
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
7、修改etc/hadoop/yarn-site.xml配置檔案,新增如下資訊。
為了能夠執行mapreduce程式,我們需要讓.nodemanger在啟動時載入shuffle。
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
8、修改etc/hadoop/slaves,新增如下資訊。
[root@CDHnode1 hadoop]# vi slaves
cdhhadoop
9、設定Hadoop環境變數
vi /etc/profile
export HADOOP_HOME=/opt/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
10、格式化namenode
hadoop namenode -format
11、啟動叢集
[hadoop@cdhhadoop hadoop]$ sbin/start-all.sh
相關推薦
Hadoop單機/偽分散式叢集搭建(新手向)
此文已由作者朱笑笑授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 本文主要參照官網的安裝步驟實現了Hadoop偽分散式叢集的搭建,希望能夠為初識Hadoop的小夥伴帶來借鑑意義。 環境: (1)系統環境:CentOS 7.3.1611 64位 (2)J
Hadoop的偽分散式搭建
已正確安裝jdk環境 JDK測試安裝成功: >java -version 解壓Hadoop,建議解壓目錄:/usr/local下 免密登陸設定(如果不加免密操作,每次啟動和關閉會有多次輸入密碼過程): >ssh-keygen -t dsa -P '
Hadoop的偽分散式的安裝及部署
文章目錄 需要的軟體及原始碼包 安裝JDK Hadoop的部署安裝 Hadoop的配置 Hadoop的使用 做Hadoop的偽分散式我們分為一下幾個步驟 需要的軟體及原始碼包 FileZil
CDH 偽分散式環境搭建
安裝環境服務部署規劃 伺服器IP 192.168.1.100 192.168.1.110 192.168.1.120 HDFS NameNode
hadoop構建偽分散式環境時,可能的出錯處理 比如8088打不開
基於本人寫的hadoop偽分散式環境搭建講解: 連結:https://blog.csdn.net/weixin_39435629/article/details/84841252 查錯常用命令彙總: $>jps (檢視hadoop的啟動程序) $>
《Hadoop》之"踽踽獨行"(七)Hadoop的偽分散式叢集搭建
在上一章我給大家介紹了Hadoop的單節點叢集本地模式的搭建,在這一章中,我們來了解一下Hadoop偽分散式叢集的搭建與用途。 一、Hadoop偽分散式叢集(pseudo distributed cluster) 1、簡介 hadoop的pseudo distributed&n
Hadoop:Hadoop單機偽分散式的安裝和配置
因為lz的linux系統已經安裝好了很多開發環境,可能下面的步驟有遺漏。之前是在docker中配置的hadoop單機偽分散式[ ],並且在docker只有root使用者,所有沒有許可權問題存在。這裡直接在linux下配置,主要是為了能用netbeans ide除錯had
Hadoop cdh版本分散式叢集搭建圖文教程
有很多想學習大資料的朋友,但苦於找不到系統的學習資料,搭建一個hadoop叢集都要耽擱很多時間。下面我給大家一個搭建大資料的圖文教程。教程中需要用到的軟體和資料我已經準備好了,下面是分享連結,直接下載即可。 連結:http://pan.baidu.com/s/1c1PW
hadoop-安裝偽分散式hdfs
硬體環境:centos 6.5,jdk7,win7 64位,vmware11 1,jdk安裝,配置環境變數 vi /etc/profile export JAVA_HOME=/usr/local/jdk7 export HADOOP_PREFIX=/opt/zy/had
Hadoop系列(一): Hadoop的偽分散式安裝
在進行Hadoop的偽分散式安裝之前,我們首先對Hadoop的一些基礎的要點進行一下說明。關於Hadoop的詳細概念,我們可以在搜狗百科上找到很詳細的答案。 Hadoop是由Apache基金會開發的一個分散式檔案系統,用來儲存,訪問和計算海量資料的框架。 Hadoop
# Hadoop安裝(偽分散式)常見問題解決及Hadoop常用命令
Hadoop安裝常見問題 一、許可權不足問題 對於hadoop安裝檔案的許可權不足會出現以下的錯誤 錯誤:Cannot create directory /usr/local/hadoop/hadoop-2.8.3/tmp/dfs/name/current 解決
[Hadoop]Hadoop+HBase 偽分散式安裝配置
(一)hadoop偽分散式的配置: 這個也可以參考《hadoop權威指南》上面寫的很全面,這裡再說一遍: 我的機器配置環境: OS:Ubuntu10.10 ,hadoop版本:hadoop-0.20.2(下載網址: http://apache.etoak.com//
Hadoop單機偽分散式模式
<property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> <property> <name>
虛擬機器下Linux系統Hadoop單機/偽分散式配置:Hadoop2.5.2+Ubuntu14.04(半原創)
系統: Ubuntu 14.04 64bitHadoop版本: Hadoop 2.5.2 (stable)JDK版本: JDK 1.6 虛擬機器及Ubuntu安裝 1. 下載並安裝 VMware workstation 11 下載地址:https://my.vmwar
hadoop-cdh的偽分散式
一、前期的準備 1、安裝環境的準備 ip地址的配置等參考地點 2、檢視centos的位數 [root@CDHnode1 ~]# file /bin/ls /bin/ls: ELF 64-bit LSB executable, x86-64, vers
cdh版本的hadoop安裝及配置(偽分散式模式) MapReduce配置 yarn配置
安裝hadoop需要jdk依賴,我這裡是用jdk8jdk版本:jdk1.8.0_151hadoop版本:hadoop-2.5.0-cdh5.3.6hadoop下載地址:連結:https://pan.baidu.com/s/1qZNeVFm 密碼:cilnjdk下載地址:連結:
linux下安裝hadoop偽分散式叢集
1. 在虛擬機器上安裝了centos7, 下載hadoop。http://hadoop.apache.org/releases.html 這裡選擇2.7版本而不是3.0版本 不選3.0版本的理由,檢視版本更新日誌
基於偽分散式hadoop搭建完全分散式
上篇部落格中,我們搭建了單機版和偽分散式版的hadoop。但是在真正的開發中都是用的完全分散式hadoop環境。 因此今天我們就來搭建一下完全分散式hadoop環境。 前提:有四臺解壓了hadoop和javajdk,且其中一臺作為namenode需要已經搭建成了偽分散式,其他三臺作為data
linux搭建單機版和偽分散式hadoop
前提:我使用的window作業系統,然後下載的VMware建立虛擬機器,然後在xshell中進行操作,並使用filezilla進行檔案的上傳。這些可以自行百度搜索下載。 單機版hadoop環境搭建 首先我們用VMware建立一個新的虛擬機器。建立過程不在細說了。 建立完成後,user
搭建Hadoop偽分散式環境(筆記)
軟硬體環境 CentOS 7.2 64 位 OpenJDK- 1.8 Hadoop- 2.7 關於本教程的說明 雲實驗室雲主機自動使用 root 賬戶登入系統,因此本教程中所有的操作都是以 root 使用者來執行的。若要在自己的雲主機上進行本教程的實驗,為了系統安全,建議