1. 程式人生 > 其它 >Hive的安裝與執行

Hive的安裝與執行

實驗環境與安裝檔案

名稱 版本 說明
CentOS 7 作業系統選用了CentOS 7
JDK Java2SE(build1.8.0_291) JDK選用了Oracle J2SE 8的最終穩定版
Hadoop 2.10.1 Hadoop2的穩定版2.10.1
Hive 2.3.9 Hive最新穩定版

實驗環境準備

  • 預設已經安裝好Hadoop
  • Hive下載
  • apache-hive-2.3.9-bin.tar.gz壓縮檔案
  • 推薦用FileZilla將Hive安裝檔案上傳至CentOS 7的/usr目錄
  • 解壓並重命名,同時將hive目錄的使用者設為hadoop
su
cd /usr
tar xzvf apache-hive-2.3.9-bin.tar.gz
mv apache-hive-2.3.9-bin hive
chown -R hadoop hive

配置Hive環境變數

配置/etc/profile檔案,設定目錄和PATH

vim /etc/profile
  • 新增如下資訊
export HIVE_HOME=/usr/hive
export PATH=$PATH:$HIVE_HOME/bin

然後使配置檔案生效

source /etc/profile

Hive執行之前的配置

修改core-site.xml

  • 需要修改hadoop配置資料夾下面的core-site.xml中的內容,不然最後jdbc:hive2://localhost:10000會拒絕連線
vim $HADOOP_HOME/etc/hadoop/core-site.xml
  • 在configuration標籤內加入下面的內容:
  <property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
  </property>

切換到hadoop賬戶($提示符下)、並啟動hadoop等程序

su hadoop
start-all.sh
mr-jobhistory-daemon.sh start historyserver

檢視hadoop程序

  • 首先執行jps命令,檢視正在執行的程序
jps
  • 如果Hadoop成功執行,應該顯示6個守護程序(不包括Jps)

DataNode
SecondaryNameNode
JobHistoryServer
NameNode
ResourceManager
NodeManager

執行HDFS的命令,建立目錄並設定許可權

hadoop fs -mkdir /user
hadoop fs -mkdir /user/hive
hadoop fs -mkdir /user/hive/warehouse
hadoop fs -chmod 777 /tmp
hadoop fs -chmod 777 /user/hive/warehouse

執行Hive

hive

Hive成功執行後,會進入到Hive的命令列介面(CLI)

退出Hive

quit;

Running HiveServer2 and Beeline

cd $HIVE_HOME/bin
schematool -dbType derby -initSchema
  • 驗證
schematool -verbose -validate -dbType derby
  • Running HiveServer2
hiveserver2
  • 這個時候你的頁面會一直卡在這裡,這是正常的,因為你是啟動了一個服務,這時你需要開啟一個新的終端
  • 開啟一個新的終端
su hadoop
/usr/hive/bin/beeline -u jdbc:hive2://localhost:10000
  • Hive的使用我們都在Beeline CLI裡操作而不是Hive CLI