1. 程式人生 > >Hadoop2.7.3 編譯 支援5種壓縮

Hadoop2.7.3 編譯 支援5種壓縮

導讀:
      按部落格中的操作步驟操作後,hadoop 編譯完成後可以支援5種本地壓縮:zlib、snappy、lz4、bzip2、openssl

筆者環境配置為:JDK1.8、Hadoop2.7.3,Hive2.3.0,你也可以使用其它版本,注意版本相容即可

1.安裝依賴工具

1.安裝相關工具

由於筆者是最小安裝,所以很多工具都沒有安裝,具體需要安裝哪些的工具,也不太清楚,所以就安裝了很多。建議你使用root使用者安裝。

# yum -y  install make gcc gcc-c++ gcc-g77 flex bison file libtool libtool-libs autoconf kernel-devel libjpeg libjpeg-devel libpng libpng-devel libpng10 libpng10-devel gd gd-devel freetype freetype-devel libxml2 libxml2-devel zlib zlib-devel glib2 glib2-devel bzip2 bzip2-devel libevent libevent-devel ncurses ncurses-devel curl curl-devel e2fsprogs e2fsprogs-devel krb5 krb5-devel libidn libidn-devel openssl openssl-devel gettext gettext-devel ncurses-devel gmp-devel pspell-devel unzip libcap lsof build-essential cmake 1g-dev pkg-config libssl-dev lzo-devel fuse fuse-devel zlib1g-dev libprotobuf-dev protobuf-compiler snappy libbz2-dev libjansson-dev libfuse-dev

如果安裝完上述工具後,還是缺少可以使用如下命令來檢測安裝

# yum -y groupinstall “Development Tools”

2.安裝protobuf

解壓編譯安裝

# tar -zxvf protobuf-2.5.0.tar.gz
# cd /home/hadoop/protobuf-2.5.0
# ./configure --prefix=/home/hadoop/protobuf/  
# make && make install

環境變數

# vim ~/.bashrc
# source ~/.bashrc
export PATH=/home/hadoop
/protobuf/bin:$PATH

如果在編譯安裝的時候報如下錯誤
libtool: install: error: cannot install `libaprutil-1.la’ to a directory
原因:可能是以前安裝用過./configure,導致安裝檔案已經不太“乾淨”
解決方法:
(1).執行命令make clean
(2).刪除剛剛編譯安裝的目錄protobuf,重新解壓安裝編譯即可

3.安裝snappy

解壓編譯安裝

# tar -zxvf snappy-1.1.1.tar.gz
# cd snappy-1.1.1
# ./configure
# make && make install

檢查snappy是否安裝完成

ll /usr/local/lib/ | grep snappy

這裡寫圖片描述

2.hadoop 編譯

1.配置maven

解壓、重新命名、配置環境變數

# tar -zvxf apache-maven-3.3.9-bin.tar.gz
# mv apache-maven-3.3.9-bin.tar.gz maven3
# vim ~/.bashrc
export MAVEN_HOME=/home/hadoop/maven3
export M2_HOME=$MAVEN_HOME

重新載入檔案,使環境變數立即生效

# source ~/.bashrc

建立.m2檔案,複製setting到該目錄

# cd /home/hadoop
# mkdir .m2

2.編譯hadoop

hadoop 編譯前將hadoop本地庫加入到環境變數

export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"

從官網下載hadoop的原始碼包,解壓

$ tar -zxvf hadoop-2.7.3-src.tar.gz
$ cd hadoop-2.7.3-src/

輸入如下命令開始編譯,編譯過程較長,耐心等待

$ mvn package -DskipTests -Pdist,native -Dtar -Drequire.snappy -e -X

如果看到BUILD SUCCESS,且沒有異常資訊,說明hadoop已經編譯成功

這裡寫圖片描述

編譯完成後可以看到hadoop的壓縮包

$ cd /home/hadoop/hadoop-2.7.3-src/hadoop-dist/target

這裡寫圖片描述

筆者配置的hadoop 的偽分散式,解壓編譯好的hadoop壓縮包,替換掉裡面的配置檔案即可,啟動輸入如下命令

$ hdfs namenode -format    #只在第一次啟動時執行
$ start-dfs.sh
$ start-yarn.sh
$ mr-jobhistory-daemon.sh start historyserver

這裡寫圖片描述

啟動過程中老是提示輸入密碼,解決方法是配置ssh無密登入,輸入如下命令即可

$ su root
# ssh-keygen -t rsa
# cp id_rsa.pub authorized_keys
# exit

檢查hadoop的本地庫

$ hadoop checknative

這裡寫圖片描述

相關推薦

Hadoop2.7.3 編譯 支援5壓縮

導讀:       按部落格中的操作步驟操作後,hadoop 編譯完成後可以支援5種本地壓縮:zlib、snappy、lz4、bzip2、openssl 筆者環境配置為:JDK1.8、Hadoop2.7.3,Hive2.3.0,你也可以使用其它版本,注意版本

hadoop2.7.3編譯支援snappy、bzip2本地壓縮

軟體包: apache-ant-1.9.9-bin.tar.gz apache-maven-3.3.9-bin.tar.gz apache-tomcat-6.0.44.tar.gz CentOS-6.9-x86_64-minimal.iso findbugs-3.0.1.tar.gz hado

Hadoop2.7.3+HBase1.2.5+ZooKeeper3.4.6搭建分散式叢集環境

Hadoop2.7.3+HBase1.2.5+ZooKeeper3.4.6搭建分散式叢集環境   一、環境說明 個人理解:zookeeper可以獨立搭建叢集,hbase本身不能獨立搭建叢集需要和hadoop和hdfs整合 叢集環境至少需要3個節點(也就是3臺伺服器裝置):1個Master,2

基於CentOS6.5系統Hadoop2.7.3完全分散式叢集搭建詳細步驟

 前言:本次搭建hadoop叢集使用虛擬機器克隆方式克隆slave節點,這樣做可以省去很多不必要的操作,來縮短我們的搭建時間。 一、所需硬體,軟體要求 使用 VMWare構建三臺虛擬機器模擬真實物理環境 作業系統:CentOS6.5 二、必備條件 hadoop搭建需

win10下編譯hadoop2.7.3的問題解決

基本的編譯過程參見http://blog.csdn.net/changge458/article/details/53576178 在編譯中遇到了幾個問題,其根本原因都是tomcat下載失敗,或者是下

CentOS7.3編譯hadoop2.7.3源碼

環境準備 Opens find -h tor ont jdk1.8 wget hadoop2.7 在使用hive或者是kylin時,可以選擇文件的壓縮格式,但是這個需要有hadoop native庫的支持,默認情況下,hadoop官方發布的二進制包中是不包含native庫的

使用命令列編譯打包執行自己的MapReduce程式 hadoop2.7.3

網上的 MapReduce WordCount 教程對於如何編譯 WordCount.java 幾乎是一筆帶過… 而有寫到的,大多又是 0.20 等舊版本版本的做法,即 javac -classpath /usr/local/hadoop/hadoop-1.0.1/ha

【原創 Spark動手實踐 1】Hadoop2.7.3安裝部署實際動手

dmi 遠程 nag proc host 一個 error img 連接 目錄: 第一部分:操作系統準備工作:   1. 安裝部署CentOS7.3 1611   2. CentOS7軟件安裝(net-tools, wget, vim等)   3. 更新CentOS

【原創 Hadoop&Spark 動手實踐 3Hadoop2.7.3 MapReduce理論與動手實踐

pack license 讀取 rgs 理論 程序員開發 -s 接口 pri 開始聊MapReduce,MapReduce是Hadoop的計算框架,我學Hadoop是從Hive開始入手,再到hdfs,當我學習hdfs時候,就感覺到hdfs和mapreduce關系的緊密。這個

Centos7完全分布式搭建Hadoop2.7.3

.com 密碼 hist gif apach sys cat 設置 blank (一)軟件準備 1,hadoop-2.7.3.tar.gz(包) 2,三臺機器裝有cetos7的機子 (二)安裝步驟   1,給每臺機子配相同的用戶     進入root : su root  

centos 7.3 安裝 mysql-5.7.18-linux-glibc2.5-x86_64

centos 7.3 安裝 mysql5.7 下載地址 :https://dev.mysql.com/get/Downloads/MySQL-5.7/mysql-5.7.18-linux-glibc2.5-x86_64.tar.gz 大概有600M 可以選擇迅雷下載然後進行上傳 ,因為是內網

配置MapReduce插件時,彈窗報錯org/apache/hadoop/eclipse/preferences/MapReducePreferencePage : Unsupported major.minor version 51.0(Hadoop2.7.3集群部署)

ava 不一致 nbsp 1.0 log class dll blog 無效 原因: hadoop-eclipse-plugin-2.7.3.jar 編譯的jdk版本和eclipse啟動使用的jdk版本不一致導致。 解決方案一: 修改myeclipse.ini文件

Centos7+hadoop2.7.3+jdk1.8

測試 master dfs- dfs con ssp 必須 加載 lib 修改主機名 1. 修改主機名 vi /etc/sysconfig/network ,改為 master , slave1 , slave2 2. source /etc/sy

Hadoop2.7.3+Centos7

gen bashrc with off conf datanode ldo 環境 courier 配置之前的準備 環境  centos 7.2+ 了解hadoop以及後面一系列需要的服務之間的大致關系,以及相互的支持連接所需物件。 1.賬戶 useradd -m had

eclipse遠程連接hadoop2.7.3進行開發

spa ios more 火墻 have 變量 str 顯示 through 一、前言 環境: 系統:centos6.5 hadoop版本:Apache hadoop2.7.3(Windows和centos都是同一個) eclipse版本:4.2.0(juno版

(學習筆記版)Hadoop入門(一):Hadoop2.7.3完全分布式集群安裝

min property per cal mon 分別是 master 修改 node 在這裏寫下安裝hadoop2.7.3版本的完全分布式的過程,因為剛開始學習hadoop不久,希望自己把學習的東西記錄下來,和大家一起分享,可能有錯誤的地方,還請大牛們批評指正,在我學習的

Centos7 安裝hadoop2.7.3和jdk1.8

配置 tin source 沒有 https prope font col 配置環境變量 下載好hadoop和jdk軟件包,傳到虛擬機上 第一步:安裝jdk並配置環境變量 解壓 tar -xvf 配置環境變量 vim /etc/profile #set ja

Hadoop2.7.3單機偽分散式環境搭建

Hadoop2.7.3單機偽分散式環境搭建 作者:家輝,日期:2018-07-10 CSDN部落格: http://blog.csdn.net/gobitan 說明:Hadoop測試環境經常搭建,這裡也做成一個模板並記錄下來。 基礎環境

hadoop2.7.3在centos7上部署安裝(單機版)

hadoop2.7.3在centos7上部署安裝(單機版)   (1)hadoop2.7.3下載 (前提:先安裝java環境) 下載地址:http://hadoop.apache.org/releases.html (注意是binary檔案,source那個是原始

Ubuntu + Hadoop2.7.3叢集搭建

先搭建Hadoop偽分佈: Ubuntu + Hadoop2.7.3偽分佈搭建 1.修改/etc/hosts檔案,IP對映 內容如下: 注:10.13.7.72為master節點IP,10.13.7.71為slave節點IP。(根據自己的IP地址設定) 2.修改maste