1. 程式人生 > >阿里雲虛擬機器搭建Hadoop-2.6.0-cdh5.7.1安裝詳解(偽分散式環境)

阿里雲虛擬機器搭建Hadoop-2.6.0-cdh5.7.1安裝詳解(偽分散式環境)

首先先搭配安全組

開啟映象後輸入以下內容:

            重要:  yum -y install lrzsz

HOSTNAME=(自己的主機名字)
hostname $HOSTNAME
echo "$(grep -E '127|::1' /etc/hosts)">/etc/hosts
echo "$(ifconfig eth0|grep inet|awk -F'[ :]' '{print $13}') $(hostname)">>/etc/hosts
sed -i "s/^HOSTNAME.*$/HOSTNAME=$HOSTNAME/g" /etc/sysconfig/network

編譯工作需要以下環境支援: 

jdk1.7(

1.8也是可以的 有一個包衝突了 改下hadoop-annotations下的jdk版本指向1.8就行了

)
apache-maven-3 
protobuf-2.5.0 
findbugs-1.3.9 
gcc gcc-c++ make cmake 
openssl zlib ncurses snappy bzip2 
lzo lzop autoconf automake

PS:將所有檔案上傳到 /tmp 目錄下

配置jdk1.7:

mkdir /usr/java
cd /usr/java/
tar -xf /tmp/server-jre-7u80-linux-x64.tar.gz
chown root: /usr/java/jdk1.7.0_80/ -R
echo 'export JAVA_HOME=/usr/java/jdk1.7.0_80'>>/etc/profile

配置maven:

cd /usr/local/
yum -y install unzip
unzip /tmp/apache-maven-3.3.9-bin.zip
chown root: /usr/local/apache-maven-3.3.9 -R
echo 'export MAVEN_HOME=/usr/local/apache-maven-3.3.9'>>/etc/profile
echo 'export MAVEN_OPTS="-Xms256m -Xmx512m"'>>/etc/profile

編譯安裝protobuf:

yum -y install gcc gcc-c++ make cmake
cd /tmp/
tar -xf protobuf-2.5.0.tar.gz
cd protobuf-2.5.0
./configure --prefix=/usr/local/protobuf
make && make install
echo 'export PROTOC_HOME=/usr/local/protobuf'>>/etc/profile


配置findbugs:

cd /usr/local/
unzip /tmp/findbugs-1.3.9.zip
chown root: findbugs-1.3.9 -R
echo 'export FINDBUGS_HOME=/usr/local/findbugs-1.3.9'>>/etc/profile

最終PATH變數和其他依賴包的安裝

echo "export PATH=\
\$FINDBUGS_HOME/bin:\
\$PROTOC_HOME/bin:\
\$MAVEN_HOME/bin:\
\$JAVA_HOME/bin:\
\$PATH">>/etc/profile
source /etc/profile
java -version
mvn -version
protoc --version
findbugs -version
# 測試java和maven以及protoc和findbugs是否配置成功
yum install -y openssl openssl-devel \
    svn ncurses-devel zlib-devel libtool \
    snappy snappy-devel bzip2 bzip2-devel \
    lzo lzo-devel lzop autoconf automake \
    openssh-clients

編譯hadoop2.6-cdh5.7.1的安裝包

cd /tmp
tar -xf hadoop-2.6.0-cdh5.7.1-src.tar.gz
cd hadoop-2.6.0-cdh5.7.1
mvn clean package -Pdist,native -DskipTests -Dtar
# 該步需要通過網路下載和編譯,耗時較長
# 引數解釋:
# clean package 清除原來的包
# -Pdist,native 將生成的包放入本地的dist目錄
# -DskipTests 忽略測試
# -Dtar 生成tar包
# 編譯生成 hadoop-2.6.0-cdh5.7.1.tar.gz
# 目錄:/tmp/hadoop-2.6.0-cdh5.7.1/hadoop-dist/target
# 可以將編譯生成的tar包儲存下來,就不用再次編譯了。

(注意:進入 /tmp/hadoop-2.6.0-cdh5.7.1/hadoop-dist/target

輸入mv 將檔案移出)

編譯出來的安裝包的部署不在需要findbugs和maven以及protobuf,只需要jdk即可。 
可以重新克隆一臺實驗機,然後配置jdk,也可以清掉編譯機器的環境進行部署:

cd /usr/local/
rm -rf findbugs-1.3.9 apache-maven-3.3.9 protobuf
sed -i '/^export MAVEN_HOME=/d'    /etc/profile
sed -i '/^export MAVEN_OPTS=/d'    /etc/profile
sed -i '/^export FINDBUGS_HOME=/d' /etc/profile
sed -i '/^export PROTOC_HOME=/d'   /etc/profile
sed -i '/^export PATH=/d'          /etc/profile
echo 'export PATH=$JAVA_HOME/bin:$PATH'>>/etc/profile
source /etc/profile

配置HDFS

新增hadoop使用者,配置sudo許可權:

useradd hadoop
echo hadoop|passwd --stdin hadoop
sed -i 's/^root.*/&\nhadoop  ALL=(ALL)       ALL/g' /etc/sudoers

安裝編譯生成的hadoop包:

cd /usr/local
tar -xf /tmp/hadoop-2.6.0-cdh5.7.1.tar.gz
chown hadoop: hadoop-2.6.0-cdh5.7.1 -R
ln -s hadoop-2.6.0-cdh5.7.1/ hadoop
cd hadoop
echo 'export HADOOP_HOME=/usr/local/hadoop'>>/etc/profile
echo 'export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH'>>/etc/profilesource /etc/profile

切換到hadoop使用者,配置ssh互信

su - hadoop
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
ssh -o StrictHostKeyChecking=no localhost date
ssh -o StrictHostKeyChecking=no 127.0.0.1 date
ssh -o StrictHostKeyChecking=no $(hostname) date

配置HDFS:

cd /usr/local/hadoop
vi etc/hadoop/core-site.xml
# 在<configuration>這裡新增配置</configuration>
# 新增完配置之後如下:
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop001:9000</value>
    </property>
</configuration>

vi etc/hadoop/hdfs-site.xml
# 在<configuration>這裡新增配置</configuration>
# 新增完配置之後如下:
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop001:50090</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.https-address</name>
        <value>hadoop001:50091</value>
    </property>
</configuration>

cd /usr/local/hadoop/etc/hadoop
echo $(hostname)>slaves# 修改hadoop的slave的解析地址

格式化namenode,啟動HDFS:

cd /usr/local/hadoop/etc/hadoop/
sed -i "s#export JAVA_HOME=.*#export JAVA_HOME=$JAVA_HOME#g" hadoop-env.sh
hdfs namenode -format
start-dfs.sh

程序狀態檢視:

jps
# 檢視NameNode、SecondaryNameNode和DataNode是否啟動
# 網頁訪問:
# http://自己IP:50070

偽分散式配置MR和Yarn

MR配置部署:

cd /usr/local/hadoop/etc/hadoop
cp -av mapred-site.xml{.template,}
vi mapred-site.xml
# 在<configuration>這裡新增配置</configuration>
# 新增完配置之後如下:
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

YARN配置部署:

vi yarn-site.xml
# 在<configuration>這裡新增配置</configuration>
# 新增完配置之後如下:
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

啟動:

start-yarn.sh

設定開機自動啟動HDFS和YARN:

echo "/bin/su - hadoop -c '/usr/local/hadoop/sbin/start-all.sh'">>/etc/rc.local

來自@若澤大資料


 

相關推薦

阿里虛擬機器搭建Hadoop-2.6.0-cdh5.7.1安裝分散式環境

首先先搭配安全組 開啟映象後輸入以下內容:             重要:  yum -y install lrzsz HOSTNAME=(自己的主機名字) hostname $HOSTNAME echo "$(grep -E '127|::1' /etc/host

apache hadoop-2.6.0-CDH5.4.1 安裝

apache hadoop-2.6.0-CDH5.4.1 安裝 1.安裝Oracle Java 8 sudo add-apt-repository ppa:webupd8team/java sudo apt-get update sudo apt-get install or

hadoop-2.6.0-cdh5.7.0分散式搭建

1,這個我們是直接在linux中下載hadoop-2.6.0-cdh5.7.0,(當然你也可以在本地下載後再上傳,這步就可以忽略)首先確保你的虛擬機器有網路,可以先ping百度測試有網沒,如下程式碼就是有網路的情況。 [[email protected

Mac 安裝Hadoop-2.6.0-cdh5.7.0分散式

下載Hadoop-2.6.0-cdh5.7.0 單機下載自己需要的版本,我下載的是hadoop-2.6.0-cdh5.7.0 一. 解壓 tar -zxvf hadoop-2.6.0-cdh5.7.0.

Spark 2.2原始碼編譯 & 支援hadoop-2.6.0-cdh5.7.0

JDK & Maven & Scala & Git軟體安裝 & 前置準備 編譯Spark原始碼的前置要求: Maven 3.3.9 or newer Java 8+ Scala Git(後文會通過分析make-d

Ubuntu16.04 下 hadoop安裝與配置分散式環境

export JAVA_HOME=/usr/lib/jvm/java export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH

Windows環境搭建Hadoop(2.6.0+Hive(2.2.0)環境並連線Kettle(6.0)

前提:配置JDK1.8環境,並配置相應的環境變數,JAVA_HOME 一.Hadoop的安裝   1.1 下載Hadoop (2.6.0) http://hadoop.apache.org/releases.html     1.1.1 下載對應版本的winutils(https://gith

CentOS 6.5下搭建hadoop 2.6.0叢集:網路配置

以Master機器為例,即主機名為”Master.hadoop”,IP為”192.168.2.30”進行一些主機名配置的相關操作。其他的Slave機器以此為依據進行修改。 檢視當前機器名稱 用下面命令進行顯示機器名稱,如果跟規劃的不一致,要按照下面進行修

windows下搭建hadoop-2.6.0本地idea開發環境

概述 本文記錄windows下hadoop本地開發環境的搭建: OS:windows hadoop執行模式:獨立模式 安裝包結構: Hadoop-2.6.0-Windows.zip -

hadoop-2.6.0-cdh5.4.5.tar.gz(CDH)的3節點叢集搭建(含zookeeper叢集安裝

前言 附連結如下:   http://blog.csdn.net/u010270403/article/details/51446674 關於幾個疑問和幾處心得! a.用NAT,還是橋接,還是only-host模式? b.用static的ip,還是dhcp的? 答:stat

在Ubuntu 上搭建hadoop-2.6.0-cdh分散式叢集

1 虛擬機器配置 序號 作業系統 CPU/core 記憶體/GB 硬碟/GB IP地址 主機名 1 Ubuntu 2 3 20 192.168.0.122 master 2 Ubuntu 1 2 20 192.168.0.123 slave

Spark 2.3.2原始碼編譯,支援hadoop-2.6.0-cdh5.15.0

前置準備&軟體安裝 spark2.3.2原始碼官方Apache下載地址: http://spark.apache.org/downloads.html 編譯spark原始碼的官方Apache參考文件 http://spark.apache.org/docs/2.3.2/b

Centos單機安裝hadoop-2.6.0-cdh5.8.5 jdk1.8.0_131

一,安裝JDK  安裝JDK1.6或者以上版本。這裡安裝jdk1.6.0_45。  下載地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html  1,下載jdk1.6.0_45-linux-

spark-2.2.0-bin-2.6.0-cdh5.12.1.tgz 編譯方法總結!

菜雞一隻,如果有說錯的地方,還請見諒和指出批評!! 事情是這樣的,想在自己本地部署一個hadoop2.6.0-cdh5.12.1,hive1.1.0-cdh5.12.1,spark-2.2.0-bin-2.6.0-cdh5.12.1的環境,前兩個還是很好找到哪裡下載和部署的! c

Hadoop 2.3.0-cdh5.0.2升級Hadoop 2.5.0-cdh5.3.1

一、準備升級包 for line in `cat /home/hadoop/platform/hadoop.list|awk '{print $1}'`; do echo $line;ssh $line "/bin/mkdir /home/hadoop/platform"

Spark-2.1.0-hadooop-2.6.0-cdh5.7.0原始碼編譯

       目前 Spark 編譯指令碼已經將Maven 整合進來了,以方便編譯以及部署。這個指令碼將會在它本地 build/ 編譯目錄自動下載和安裝所有編譯過程中所必需的( Maven,Scala 和 Zinc )。可以手動修改dev/make-distribution

hadoop2.6.0-cdh5.7.1分散式編譯安裝

環境相關: OS:CentOS release 6.9 IP:192.168.1.10 MEM:10G(推薦4G以上) DISK:50G 1. 主機克隆,基礎環境部署 參照《CentOS6實驗機模板搭建部署》 克隆一臺實驗機,調整記憶體為10G,並

使用3臺虛擬機器搭建Hadoop HA叢集2

系列部落格目錄連結:Hadoop權威指南學習筆記:總章 基礎環境搭建:使用3臺虛擬機器搭建Hadoop HA叢集(1) HA環境搭建:使用3臺虛擬機器搭建Hadoop HA叢集(2) 本部分包含以下基本分內容 安裝部署zookeeper

使用3臺虛擬機器搭建Hadoop HA叢集1

系列部落格目錄連結:Hadoop權威指南學習筆記:總章 基礎環境搭建:使用3臺虛擬機器搭建Hadoop HA叢集(1) HA環境搭建:使用3臺虛擬機器搭建Hadoop HA叢集(2) 工欲善其事,必先利其器,要學好大資料,就必須首先學會自己動手

centos下hadoop-2.6.0完全分散式搭建

一、Hadoop執行模式: Hadoop有三種執行模式,分別如下: 單機(非分散式)模式 偽分散式(用不同程序模仿分散式執行中的各類節點)模式 完全分散式模式 注:前兩種可以在單機執行,最後一種用於真