Hadoop+Hive安裝配置
在此之前,接觸了hadoop,在本地安裝遇到了好多坑,這裡簡單講一下安裝過程和常見錯誤。
一、安裝環境
環境:centos6.5虛擬機器
ip:192.168.217.133
使用者:root
安裝了 mysq資料庫
二、安裝JDK
需要安裝JAVA環境,所以首先安裝JDK,這裡用到的是jdk-9.0.1版本。
下載地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html 找到對應下載即可
1、檢視主機是否安裝了jdk
[[email protected] ~]# rpm -qa |grep java
如果安裝了,可以用rpm -e 刪除重新下載使用。
2、安裝jdk
rpm -ivh jdk-9.0.1_linux-x64_bin.rpm
3、修改/etc/profile環境,(前提檢視jdk的安裝路徑,一般在/usr/java/ 底下。)
vim /etc/profile
新增如下:
export JAVA_HOME=/usr/java/jdk-9.0.1
export PATH=$PATH:$JAVA_HOME/bin
儲存退出
使用 sourch /etc/profile 使配置生效。
4、檢視安裝成功
[[email protected] conf]# java -version
java version "9.0.1"
Java(TM) SE Runtime Environment (build 9.0.1+11)
Java HotSpot(TM) 64-Bit Server VM (build 9.0.1+11, mixed mode)
如果出現如上所示則jdk安裝成功。
三、安裝hadoop
這裡使用的是hadoop-1.2.1.tar.gz版本
下載地址:http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
1、下載
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
2、解壓進目錄/opt/ (目錄隨意,也可自建)
tar -zxf hadoop-1.2.1.tar.gz -C /opt/
3、配置hadoop
cd /opt/hadoop-1.2.1/conf
主要配置4個檔案:mapred-site.xml、core-site.xml、 hdfs-site.xml、hadoop-env.sh
vim mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>Master:9001</value>
</property>
</configuration>
vim core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/hadoop/name</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://Master:9000</value>
</property>
</configuration>
vim hdfs-site.xml
<configuration>
<property>-
<name>dfs.data.dir</name>
<value>/hadoop/data</value>
</property>
</configuration>
vim hadoop-env.sh
export JAVA_HOME=/usr/java/jdk-9.0.1/ 只新增這一行 JAVA路徑。
4、修改/etc/profile環境
export HADOOP_HOME=/opt/hadoop-1.2.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
儲存退出
source /etc/profile 使檔案生效。
5、測試是否安裝成功
[[email protected] conf]# hadoop fs -ls /
Warning: $HADOOP_HOME is deprecated.
drwxr-xr-x - root supergroup 0 2017-10-19 11:00 /hadoop
出現如上表示成功。
6、啟動hadoop
使用jps檢視
[[email protected] ~]# jps
2391 Jps
沒有程序。
進入hadoop執行目錄
# cd /opt/hadoop-1.2.1/bin
# start-all.sh 執行即可
執行過程中會提示你輸入主機密碼還幾次,輸入即可,如果不想輸入,給主機設定ssh免密登入,不會的話網上一大堆這裡就不多說了。
7、檢測啟動狀態
使用jps命令檢視
[[email protected] bin]# jps
2642 TaskTracker
4132 Jps
2423 SecondaryNameNode
2266 DataNode
2155 NameNode
2507 JobTracker
出現如上程序說明安裝成功。
四、安裝hive
下載地址:http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0-bin.tar.gz
1、下載軟體
wget http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0-bin.tar.gz
解壓進OPT目錄
tar -zxf hive-0.9.0-bin.tar.gz -C /opt/
2、進入conf目錄修改配置內容
cd /opt/hive-0.9.0-bin/conf
hive-env.sh檔案只有模板,所以首先我們複製一份模板使用
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
新增如下一行hadoop家目錄
HADOOP_HOME=/opt/hadoop-1.2.1
vim hive-site.xml
新增如下配置:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
-
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
-
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
-
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
</configuration>
3、修改/etc/profile環境
export HIVE_HOME=/opt/hive-0.9.0-bin
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$PATH ##這是JDK、Hadoop、Hive三個的結合,只要這一條即可。
儲存退出
source /etc/profile 使檔案生效。
4、啟動hive
[[email protected] ~]# hive
hive>
進入成功。
以下部分講一下hive啟動的幾個失敗點:
1、Caused by: java.net.ConnectException: Connection refused (Connection refused)
這種情況是連線失敗,mysql服務沒有啟動,啟動即可。
2、Caused by: org.datanucleus.exceptions.NucleusException: The java type java.lang.Integer (jdbc-type="", sql-type="") cant be mapped for this datastore. No mapping is available.
錯誤與linux框的語言設定有關,在/etc/profile檔案中新增如下一行:
export LANG=C 啟動即可.
3、Caused by: org.datanucleus.exceptions.NucleusException: Attempt to invoke the "BONECP" plugin to create a ConnectionPool gave an error : The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH. Please check your CLASSPATH specification, and the name of the driver
這種錯誤屬於缺少連線資料庫的JAR包,下載:mysql-connector-java-5.1.44-bin.jar
下載地址:https://dev.mysql.com/downloads/connector/j/
把下載的jar包,放入/opt/hive-0.9.0-bin/lib 底下即可成功啟動。
4、Caused by: java.sql.SQLException: Access denied for user 'root'@'localhost' (using password: YES)
出現這種錯誤是mysql密碼錯誤,改成正確密碼即可,(本機的mysql使用者名稱和密碼都是root)
5、如果出現沒有許可權的問題,進入資料庫:
#(執行下面的語句 *.*:所有庫下的所有表 %:任何IP地址或主機都可以連線)
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
FLUSH PRIVILEGES;
6、Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported i
出現原因:NameNode掛了,或者是兩個NN都是standBy狀態。
解決辦法:重啟namenode,讓其恢復到正常狀態。
其他的啟動錯誤基本都很簡單,檢視報錯基本都可解決,大家有什麼不能解決的錯誤,提出來一起看一下,謝謝瀏覽。
相關推薦
Hadoop+Hive安裝配置
在此之前,接觸了hadoop,在本地安裝遇到了好多坑,這裡簡單講一下安裝過程和常見錯誤。 一、安裝環境 環境:centos6.5虛擬機器 ip:192.168.217.133 使用者:root 安裝了 mysq資料庫 二、安裝JDK 需要安裝JAVA環境,所以首先安裝JDK
hadoop的dw-hive安裝配置---hadoop安裝系列之三
一、hive相關知識複習 複習一下hadoop的資料倉庫hive,它的元資料儲存在第三方資料庫中,實際資料儲存在hadoop的hdfs上,所以hive不能脫離hadoop與第三方資料庫單獨存在,我們前面已經安裝好了hadoop2.7.3版本,只要安裝一個第三方資料庫即可滿足
CentOS7.0基於hadoop叢集安裝配置Hive
前言 安裝Apache Hive前提是要先安裝hadoop叢集,並且hive只需要在hadoop的namenode節點叢集裡安裝即可(需要再有的namenode上安裝),可以不在datanode節點的機器上安裝。還需要說明的是,雖然修改配置檔案並不需要把had
Hadoop Hive安裝,配置mysql元資料庫
由於Hive依賴於Hadoop,安裝Hive之前必須確認Hadoop可用,關於Hadoop的安裝可以參考叢集分散式 Hadoop安裝詳細步驟,這裡不再敘述。 tar -zxvf apache-hive-1.0.1-bin.tar.gz 在ap
Hive安裝配置要點
操作 ont tex val 自動創建 官網 後來 sql value 官網下載安裝包; 在Profile下面定義HIVE_HOME以及HADOOP_HOME,然後在PATH下面添加HOME/bin目錄,用於在命令行直接敲beeline,hive即可執行命令; 需要在had
hadoop環境安裝配置介紹與步驟
關系 防止 shadow 設置 操作 data 環境 con 目的 在上一篇的分享文章中我是給大家分享了運行部署hadoop的一些安裝準備工作,這篇接上一篇繼續為大家分享一些個人的學習經驗總結。我學習用的是大快發行版DKHadoop,所以所有的經驗分享都是以DKHadoop
Hive 安裝配置
apach require pan tom 初始 tomat -a cti etc 0. 說明 在安裝好 Hadoop 集群和 ZooKeeper 分布式的基礎上裝好 MySQL,再進行 Hive 安裝配置 1. 安裝 1.1 將 Hive
hadoop環境安裝配置步驟詳解
hadoop環境安裝配置步驟詳解 在上一篇的分享文章中我是給大家分享了執行部署hadoop的一些安裝準備工作,這篇接上一篇繼續為大家分享一些個人的學習經驗總結。我學習用的是大快發行版DKHadoop,所以所有的經驗分享都是以DKHadoop為基礎,這裡要先說明一下。個人覺得DKHadoop對
Windows平臺Hadoop環境安裝配置
下載3個所需軟體 JDK安裝與環境變數配置 下載hadoop,建議使用國內源下載 ,比如:清華大學源 下載hadooponwindows-master.zip【**能支援在windows執行hadoop的工具】 安裝配置 這篇文章寫的比較好,簡單幾步
hadoop-lzo 安裝配置
在hive中要想使用lzo的格式,需要配置安裝好lzo工具並且在hadoop的core-site.xml與mapred-site.xml中配置相應的配置 一、編譯安裝lzo與lzop 在叢集的每一臺
hive安裝配置
Hive只在一個節點上安裝即可 1.上傳tar包 2.解壓 [[email protected] ~]$ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C apps/ 3.安裝mysql來作為元資訊資料庫,替換預設derby
Hadoop叢集安裝配置
Hadoop的安裝分為單機方式、偽分散式方式 和 完全分散式方式。 單機模式 : Hadoop的預設模式。當首次解壓Hadoop的原始碼包時,Hadoop無法瞭解硬體安裝環境,便保守地選擇了最小配置。在這種預設模式下所有3個XML檔案均為空。當配置檔案為空時,Hadoop會完全執行在本地
Hive安裝配置啟動的時候出現的問題以及解決辦法
[ERROR] Terminal initialization failed; falling back to unsupported java.lang.IncompatibleClassChangeError: Found class jline.Termi
Hadoop叢集安裝配置教程_Hadoop2.6.0_Ubuntu/CentOS
Hadoop叢集安裝配置教程_Hadoop2.6.0_Ubuntu/CentOS 2014-08-09 (updated: 2016-09-26) 125333 217 本教程適合於原生 Hadoop 2,包括 Hadoop 2.6.0, Hadoop 2.7.1 等
Hadoop的安裝配置
Hadoop的安裝配置 登入Hadoop官網(http://hadoop.apache.org/releases.html) 下載Hadoop 2.6.0安裝包hadoop-2.6.0.tar.gz。然後解壓至本地指定目錄。 tar zxvf hadoop-2.6.0.tar.gz
hive安裝配置(hive1.2.1)
環境centOS 7 hive的安裝比較簡單,只需要在一臺機器上配置即可。 由於hive的一些功能要藉助資料庫實現,所以要先裝好mysql。 一.安裝MySql 1.下載MySQL # 下載mysql源安裝包 shell> wget http://dev.mys
hadoop(單機)安裝配置
1.安裝JDK yum -y install java-1.8.0-openjdk* 2.在相應目錄下安裝hadoop wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop
hadoop單機安裝配置
1.安裝jdk 在java官網 yum 安裝 yum install java-1.7.0-openjdk* -y 2.安裝hadoop 修改ect的配置檔案 yarn-site.xml <!--告訴NodeManager
Hadoop 之 Hive 安裝與配置
file 接下來 重新 軟件 driver name arc /etc ted Hive 作為基於Hadoop的一個數據倉庫工具,可將sql語句轉換為MapReduce任務進行運行。 通過類SQL語句快速實現簡單的MapReduce統計,不用開發專門的MapReduce應用
cdh版本的hue安裝配置部署以及集成hadoop hbase hive mysql等權威指南
service sources ces 兩個 配置 語句 基金會 pan 創建 hue下載地址:https://github.com/cloudera/hue hue學習文檔地址:http://archive.cloudera.com/cdh5/cdh/5/hue-3.7