Hive的安裝與執行
阿新 • • 發佈:2021-08-13
實驗環境與安裝檔案
名稱 | 版本 | 說明 |
---|---|---|
CentOS | 7 | 作業系統選用了CentOS 7 |
JDK | Java2SE(build1.8.0_291) | JDK選用了Oracle J2SE 8的最終穩定版 |
Hadoop | 2.10.1 | Hadoop2的穩定版2.10.1 |
Hive | 2.3.9 | Hive最新穩定版 |
實驗環境準備
- 預設已經安裝好Hadoop
- Hive下載
- apache-hive-2.3.9-bin.tar.gz壓縮檔案
- 推薦用FileZilla將Hive安裝檔案上傳至CentOS 7的/usr目錄
- 解壓並重命名,同時將hive目錄的使用者設為hadoop
su cd /usr tar xzvf apache-hive-2.3.9-bin.tar.gz mv apache-hive-2.3.9-bin hive chown -R hadoop hive
配置Hive環境變數
配置/etc/profile檔案,設定目錄和PATH
vim /etc/profile
- 新增如下資訊
export HIVE_HOME=/usr/hive
export PATH=$PATH:$HIVE_HOME/bin
然後使配置檔案生效
source /etc/profile
Hive執行之前的配置
修改core-site.xml
- 需要修改hadoop配置資料夾下面的core-site.xml中的內容,不然最後jdbc:hive2://localhost:10000會拒絕連線
vim $HADOOP_HOME/etc/hadoop/core-site.xml
- 在configuration標籤內加入下面的內容:
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
切換到hadoop賬戶($提示符下)、並啟動hadoop等程序
su hadoop start-all.sh mr-jobhistory-daemon.sh start historyserver
檢視hadoop程序
- 首先執行jps命令,檢視正在執行的程序
jps
- 如果Hadoop成功執行,應該顯示6個守護程序(不包括Jps)
DataNode
SecondaryNameNode
JobHistoryServer
NameNode
ResourceManager
NodeManager
執行HDFS的命令,建立目錄並設定許可權
hadoop fs -mkdir /user
hadoop fs -mkdir /user/hive
hadoop fs -mkdir /user/hive/warehouse
hadoop fs -chmod 777 /tmp
hadoop fs -chmod 777 /user/hive/warehouse
執行Hive
hive
Hive成功執行後,會進入到Hive的命令列介面(CLI)
退出Hive
quit;
Running HiveServer2 and Beeline
cd $HIVE_HOME/bin
schematool -dbType derby -initSchema
- 驗證
schematool -verbose -validate -dbType derby
- Running HiveServer2
hiveserver2
- 這個時候你的頁面會一直卡在這裡,這是正常的,因為你是啟動了一個服務,這時你需要開啟一個新的終端
- 開啟一個新的終端
su hadoop
/usr/hive/bin/beeline -u jdbc:hive2://localhost:10000
- Hive的使用我們都在Beeline CLI裡操作而不是Hive CLI
續
- Hive命令使用:參考《Hive入門操作》或如下網址:
- Hive入門操作
- 以上、參考英文hive文件
- Hive GettingStarted