1. 程式人生 > >Hadoop+Hive安裝配置

Hadoop+Hive安裝配置

在此之前,接觸了hadoop,在本地安裝遇到了好多坑,這裡簡單講一下安裝過程和常見錯誤。

一、安裝環境

環境:centos6.5虛擬機器

ip:192.168.217.133

使用者:root

安裝了 mysq資料庫

二、安裝JDK

需要安裝JAVA環境,所以首先安裝JDK,這裡用到的是jdk-9.0.1版本。

下載地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html 找到對應下載即可

1、檢視主機是否安裝了jdk

[[email protected] ~]# rpm -qa |grep java 

如果安裝了,可以用rpm  -e 刪除重新下載使用。

2、安裝jdk

rpm -ivh jdk-9.0.1_linux-x64_bin.rpm 

3、修改/etc/profile環境,(前提檢視jdk的安裝路徑,一般在/usr/java/ 底下。)

vim /etc/profile

新增如下:

export JAVA_HOME=/usr/java/jdk-9.0.1

export PATH=$PATH:$JAVA_HOME/bin

儲存退出

使用   sourch /etc/profile  使配置生效。

4、檢視安裝成功

[[email protected] conf]# java -version      
java version "9.0.1"
Java(TM) SE Runtime Environment (build 9.0.1+11)
Java HotSpot(TM) 64-Bit Server VM (build 9.0.1+11, mixed mode)

如果出現如上所示則jdk安裝成功。

三、安裝hadoop

這裡使用的是hadoop-1.2.1.tar.gz版本

下載地址:http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz

1、下載

wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz

2、解壓進目錄/opt/ (目錄隨意,也可自建)

tar -zxf hadoop-1.2.1.tar.gz -C /opt/

3、配置hadoop

cd /opt/hadoop-1.2.1/conf

主要配置4個檔案:mapred-site.xml、core-site.xml、 hdfs-site.xml、hadoop-env.sh

vim mapred-site.xml

<configuration>  
        <property>
                <name>mapred.job.tracker</name>
                <value>Master:9001</value>                                                                                                                 
        </property>
</configuration> 

vim core-site.xml

<configuration>  
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/hadoop</value>
        </property>
        <property>
                <name>dfs.name.dir</name>
                <value>/hadoop/name</value>
        </property>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://Master:9000</value>                                                                                                          
        </property>

</configuration>

vim hdfs-site.xml

<configuration>  
        <property>-
                <name>dfs.data.dir</name>
                <value>/hadoop/data</value>                                                                                                                
        </property>
</configuration> 

vim  hadoop-env.sh

export JAVA_HOME=/usr/java/jdk-9.0.1/   只新增這一行 JAVA路徑。

4、修改/etc/profile環境

export HADOOP_HOME=/opt/hadoop-1.2.1

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

儲存退出

source /etc/profile 使檔案生效。

5、測試是否安裝成功

[[email protected] conf]# hadoop fs -ls /
Warning: $HADOOP_HOME is deprecated.

drwxr-xr-x   - root supergroup          0 2017-10-19 11:00 /hadoop

出現如上表示成功。

6、啟動hadoop

使用jps檢視

[[email protected] ~]# jps
2391 Jps

沒有程序。

進入hadoop執行目錄

# cd /opt/hadoop-1.2.1/bin

# start-all.sh   執行即可

執行過程中會提示你輸入主機密碼還幾次,輸入即可,如果不想輸入,給主機設定ssh免密登入,不會的話網上一大堆這裡就不多說了。

7、檢測啟動狀態

使用jps命令檢視

[[email protected] bin]# jps                     
2642 TaskTracker
4132 Jps
2423 SecondaryNameNode
2266 DataNode
2155 NameNode
2507 JobTracker

出現如上程序說明安裝成功。

四、安裝hive

下載地址:http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0-bin.tar.gz

1、下載軟體

 wget http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0-bin.tar.gz

解壓進OPT目錄 

tar -zxf hive-0.9.0-bin.tar.gz -C /opt/   

2、進入conf目錄修改配置內容

cd /opt/hive-0.9.0-bin/conf

 hive-env.sh檔案只有模板,所以首先我們複製一份模板使用

cp hive-env.sh.template hive-env.sh

vim hive-env.sh

新增如下一行hadoop家目錄

HADOOP_HOME=/opt/hadoop-1.2.1   

vim hive-site.xml 

新增如下配置:

<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
-
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
-
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
-
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
</configuration> 

3、修改/etc/profile環境

export HIVE_HOME=/opt/hive-0.9.0-bin

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$PATH        ##這是JDK、Hadoop、Hive三個的結合,只要這一條即可。

儲存退出

source /etc/profile 使檔案生效。

4、啟動hive

[[email protected] ~]# hive

hive> 

進入成功。

以下部分講一下hive啟動的幾個失敗點:

1、Caused by: java.net.ConnectException: Connection refused (Connection refused)

這種情況是連線失敗,mysql服務沒有啟動,啟動即可。

2、Caused by: org.datanucleus.exceptions.NucleusException: The java type java.lang.Integer (jdbc-type="", sql-type="") cant be mapped for this datastore. No mapping is available.

錯誤與linux框的語言設定有關,在/etc/profile檔案中新增如下一行:

export LANG=C  啟動即可.

3、Caused by: org.datanucleus.exceptions.NucleusException: Attempt to invoke the "BONECP" plugin to create a ConnectionPool gave an error : The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH. Please check your CLASSPATH specification, and the name of the driver

這種錯誤屬於缺少連線資料庫的JAR包,下載:mysql-connector-java-5.1.44-bin.jar

下載地址:https://dev.mysql.com/downloads/connector/j/ 

把下載的jar包,放入/opt/hive-0.9.0-bin/lib 底下即可成功啟動。

4、Caused by: java.sql.SQLException: Access denied for user 'root'@'localhost' (using password: YES)

出現這種錯誤是mysql密碼錯誤,改成正確密碼即可,(本機的mysql使用者名稱和密碼都是root)

5、如果出現沒有許可權的問題,進入資料庫:

#(執行下面的語句  *.*:所有庫下的所有表   %:任何IP地址或主機都可以連線)
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
FLUSH PRIVILEGES;

6、Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported i

    出現原因:NameNode掛了,或者是兩個NN都是standBy狀態。
    解決辦法:重啟namenode,讓其恢復到正常狀態。

其他的啟動錯誤基本都很簡單,檢視報錯基本都可解決,大家有什麼不能解決的錯誤,提出來一起看一下,謝謝瀏覽。

相關推薦

Hadoop+Hive安裝配置

在此之前,接觸了hadoop,在本地安裝遇到了好多坑,這裡簡單講一下安裝過程和常見錯誤。 一、安裝環境 環境:centos6.5虛擬機器 ip:192.168.217.133 使用者:root 安裝了 mysq資料庫 二、安裝JDK 需要安裝JAVA環境,所以首先安裝JDK

hadoop的dw-hive安裝配置---hadoop安裝系列之三

一、hive相關知識複習 複習一下hadoop的資料倉庫hive,它的元資料儲存在第三方資料庫中,實際資料儲存在hadoop的hdfs上,所以hive不能脫離hadoop與第三方資料庫單獨存在,我們前面已經安裝好了hadoop2.7.3版本,只要安裝一個第三方資料庫即可滿足

CentOS7.0基於hadoop叢集安裝配置Hive

前言 安裝Apache Hive前提是要先安裝hadoop叢集,並且hive只需要在hadoop的namenode節點叢集裡安裝即可(需要再有的namenode上安裝),可以不在datanode節點的機器上安裝。還需要說明的是,雖然修改配置檔案並不需要把had

Hadoop Hive安裝配置mysql元資料庫

  由於Hive依賴於Hadoop,安裝Hive之前必須確認Hadoop可用,關於Hadoop的安裝可以參考叢集分散式 Hadoop安裝詳細步驟,這裡不再敘述。 tar -zxvf apache-hive-1.0.1-bin.tar.gz   在ap

Hive安裝配置要點

操作 ont tex val 自動創建 官網 後來 sql value 官網下載安裝包; 在Profile下面定義HIVE_HOME以及HADOOP_HOME,然後在PATH下面添加HOME/bin目錄,用於在命令行直接敲beeline,hive即可執行命令; 需要在had

hadoop環境安裝配置介紹與步驟

關系 防止 shadow 設置 操作 data 環境 con 目的 在上一篇的分享文章中我是給大家分享了運行部署hadoop的一些安裝準備工作,這篇接上一篇繼續為大家分享一些個人的學習經驗總結。我學習用的是大快發行版DKHadoop,所以所有的經驗分享都是以DKHadoop

Hive 安裝配置

apach require pan tom 初始 tomat -a cti etc 0. 說明   在安裝好 Hadoop 集群和 ZooKeeper 分布式的基礎上裝好 MySQL,再進行 Hive 安裝配置    1. 安裝   1.1 將 Hive

hadoop環境安裝配置步驟詳解

hadoop環境安裝配置步驟詳解 在上一篇的分享文章中我是給大家分享了執行部署hadoop的一些安裝準備工作,這篇接上一篇繼續為大家分享一些個人的學習經驗總結。我學習用的是大快發行版DKHadoop,所以所有的經驗分享都是以DKHadoop為基礎,這裡要先說明一下。個人覺得DKHadoop對

Windows平臺Hadoop環境安裝配置

下載3個所需軟體 JDK安裝與環境變數配置 下載hadoop,建議使用國內源下載 ,比如:清華大學源 下載hadooponwindows-master.zip【**能支援在windows執行hadoop的工具】 安裝配置 這篇文章寫的比較好,簡單幾步

hadoop-lzo 安裝配置

       在hive中要想使用lzo的格式,需要配置安裝好lzo工具並且在hadoop的core-site.xml與mapred-site.xml中配置相應的配置   一、編譯安裝lzo與lzop     在叢集的每一臺

hive安裝配置

Hive只在一個節點上安裝即可 1.上傳tar包 2.解壓 [[email protected] ~]$ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C apps/ 3.安裝mysql來作為元資訊資料庫,替換預設derby

Hadoop叢集安裝配置

Hadoop的安裝分為單機方式、偽分散式方式 和 完全分散式方式。 單機模式 : Hadoop的預設模式。當首次解壓Hadoop的原始碼包時,Hadoop無法瞭解硬體安裝環境,便保守地選擇了最小配置。在這種預設模式下所有3個XML檔案均為空。當配置檔案為空時,Hadoop會完全執行在本地

Hive安裝配置啟動的時候出現的問題以及解決辦法

[ERROR] Terminal initialization failed; falling back to unsupported java.lang.IncompatibleClassChangeError: Found class jline.Termi

Hadoop叢集安裝配置教程_Hadoop2.6.0_Ubuntu/CentOS

Hadoop叢集安裝配置教程_Hadoop2.6.0_Ubuntu/CentOS 2014-08-09 (updated: 2016-09-26) 125333 217 本教程適合於原生 Hadoop 2,包括 Hadoop 2.6.0, Hadoop 2.7.1 等

Hadoop安裝配置

Hadoop的安裝配置 登入Hadoop官網(http://hadoop.apache.org/releases.html) 下載Hadoop 2.6.0安裝包hadoop-2.6.0.tar.gz。然後解壓至本地指定目錄。 tar zxvf hadoop-2.6.0.tar.gz

hive安裝配置(hive1.2.1)

環境centOS 7 hive的安裝比較簡單,只需要在一臺機器上配置即可。 由於hive的一些功能要藉助資料庫實現,所以要先裝好mysql。 一.安裝MySql 1.下載MySQL # 下載mysql源安裝包 shell> wget http://dev.mys

hadoop(單機)安裝配置

1.安裝JDK yum -y install java-1.8.0-openjdk* 2.在相應目錄下安裝hadoop wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop

hadoop單機安裝配置

1.安裝jdk 在java官網 yum 安裝 yum install java-1.7.0-openjdk* -y   2.安裝hadoop 修改ect的配置檔案 yarn-site.xml <!--告訴NodeManager

HadoopHive 安裝配置

file 接下來 重新 軟件 driver name arc /etc ted Hive 作為基於Hadoop的一個數據倉庫工具,可將sql語句轉換為MapReduce任務進行運行。 通過類SQL語句快速實現簡單的MapReduce統計,不用開發專門的MapReduce應用

cdh版本的hue安裝配置部署以及集成hadoop hbase hive mysql等權威指南

service sources ces 兩個 配置 語句 基金會 pan 創建 hue下載地址:https://github.com/cloudera/hue hue學習文檔地址:http://archive.cloudera.com/cdh5/cdh/5/hue-3.7