1. 程式人生 > 其它 >hadoop - 安裝詳解【包括jdk配置】

hadoop - 安裝詳解【包括jdk配置】

1.準備虛擬機器,安裝linux系統

我安裝的是centos7 , 在阿里映象下載的,

地址 http: //mirrors.aliyun.com/centos/7.9.2009/isos/x86_64/CentOS-7-x86_64-DVD-2009.iso

歷史版本目錄地址 http: //mirrors.aliyun.com/centos/

【//前去掉空格】

vm 使用 16pro版本 ,

安裝3個虛擬機器

2.使用xshell遠端連線虛擬機器

3.官網下載hadoop

地址 https: //archive.apache.org/dist/hadoop/common

2.7.5版本直接下載地址
https: //archive.apache.org/dist/hadoop/common/hadoop-2.7.5/hadoop-2.7.5.tar.gz

【//前去掉空格】

4.在自己喜歡的目錄將壓縮包上傳過去

我的:

生成目錄
mkdirs /home/myhadoop 
進入該目錄
cd  /home/myhadoop 
本地檔案上傳該目錄
rz
然後選擇壓縮包即可上傳
解壓壓縮包到當前目錄
tar -zvxf hadoop-2.7.5.tar.gz -C 
進入解壓的目錄
cd hadoop-2.7.5

ls

可看到目錄
bin etc include lib libexec LICENSE.txt NOTICE.txt README.txt sbin share

說明:

bin目錄:存放對Hadoop相關服務(HDFS,YARN)進行操作的指令碼

etc目錄:Hadoop的配置檔案目錄,存放Hadoop的配置檔案

include目錄:對外提供的程式設計庫標頭檔案(具體動態庫和靜態庫在lib目錄中),這些標頭檔案均是用C++定義的,通常用於C++程式訪問HDFS或者編寫MapReduce程式。

lib目錄:存放Hadoop的本地庫(對資料進行壓縮解壓縮功能)

sbin目錄:存放啟動或停止Hadoop相關服務的指令碼

share目錄:存放Hadoop的依賴jar包、文件、和官方案例

配置環境變數
cd /etc/profile.d
vim my_env.sh
內容如下

#HADOOP_HOME
export HADOOP_HOME=/home/myhadoop/hadoop-2.7.5
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

儲存

然後執行
source my_env.sh
來生效

執行

hadoop version

如果出現

Error: JAVA_HOME is not set and could not be found.

則表示沒有新增jdk的環境變數

如果是使用本地資源來安裝jdk,取出jdk的安裝路徑,

如果是使用yum指令安裝,則其預設的安裝位置在

/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_64

【jdk yum安裝,看我這篇隨筆 https: //www.cnblogs.com/c2g5201314/p/15780401.html】

我這裡的使用yum的,配置模板為

#JAVA_HOME 
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_64
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/jre/lib/rt.jar
export PATH=$PATH:$JAVA_HOME/bin
進入配置目錄
cd /etc/profile.d
建立配置檔案
vim JAVA_HOME.sh
然後加入模板裡的內容,如果是本地資源來安裝則改掉 JAVA_HOME= 後的地址為自己的即可
儲存
執行 source JAVA_HOME.sh 生效

現在再執行  hadoop version  

出現 如下表示 成功

其他的一些linux指令,只做備忘參考

hadoop fs -ls x  檢視 HDFS 的該級的檔案目錄
hadoop fs -ls x -R 迭代檢視 HDFS 的檔案目錄
hadoop fs -mkdir x 在HDFS 建立資料夾
hadoop fs -put x y  從本地上傳到HDFS
hadoop fs -get x y  從HDFS下載到本地
hadoop fs -mv x y  移動檔案,即剪下 
hadoop fs -rm x   刪除檔案,其實即使移動到回收站 
hadoop fs -rm -r x   刪除資料夾
hadoop fs -cp x y   拷貝檔案


Hadoop fs cat x 將檔案內容輸出到控制檯


sz x 將linux檔案下載到本地


cd   ./xxx/nb-fyzt
拷貝上一次的檔案
cp ./xxx.jar  ./xxx.jar-back

//刪除
rm xxx.jar

刪除後再上傳
rz 

執行
./run.sh restart

檢視
tail -f nohup.out 

檢視當前路徑
pwd


ctl + s 暫停輸出會卡死,點選 ctl + q 即可恢復