hive1.2.1安裝指南
Hive安裝指南
該文件是建立在已經安裝好hadoop和jdk的基礎上,並且已經設定好HADOOP_HOME環境變數以及JAVA_HOME環境變數, 在hadoop機群的主節點(192.168.22.135)上安裝。
1 下載安裝包
從http://mirror.bit.edu.cn/apache/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz 中,獲取安裝包。
2 解壓hive包
安裝hive與hadoop的使用者保持一致,轉到hive所需安裝的目錄下,執行tar -xzvf
apache-hive-1.2.1-bin.tar.gz
3 上傳postgresql驅動包
從安裝包資料夾中上傳postgresql的驅動包postgresql-9.3-1102-jdbc41.jar(獲取對應的postgresql資料庫驅動包)放在HIVE_HOME/lib下。
4 在HDFS上建立目錄
1、執行以下命令:
hadoop fs -mkdir /tmp
hadoop fs -mkdir /user
hadoop fs -mkdir /user/hive
hadoop fs -mkdir /user/hive/warehouse
hadoop fs -chmod 777 /tmp
hadoop fs -chmod 777 /user/hive/warehouse
2、進入目錄/data/hadoop/hadoop-2.5.2/share/hadoop/yarn/lib中,刪除jline-0.9.94.jar,然後將/home/imax/apache-hive-1.2.1-bin/lib中的jline-2.12.jar拷貝到當前目錄以替換jline-0.9.94.jar。
5 Postgresql建立資料庫,載入初始化指令碼資料。
通過postgresql客戶端,建立資料庫名hive。從apache-hive-1.2.1-bin/scripts/metastore/upgrade/postgres資料夾獲取初始化指令碼hive-schema-1.2.0.postgres.sql、hive-txn-schema-0.13.0.postgres.sql,放在對應postgresql所在主機的目錄/opt/PostgreSQL/9.4/bin/下,用於執行匯入hive-schema-1.2.0.postgres.sql檔案的命令。匯入命令為psql
-d hive -fhive-schema-1.2.0.postgres.sql。
6 配置hive-site.xml
先進入/data/hadoop/apache-hive-1.2.1-bin/conf目錄下,cphive-default.xml.template hive-site.xml生成hive-site.xml。
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:postgresql://postgresql連線的對應埠號/hive</value>
<description>JDBC connect string for aJDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>org.postgresql.Driver</value>
<description>Driver class name for aJDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>連線postgresql資料庫使用者名稱(使用者需要有建立、讀寫表的許可權)</value>
<description>username to use againstmetastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>連線postgresql資料庫密碼</value>
<description>password to use againstmetastore database</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>hdfs://hadoopNameNode節點加埠號/user/hive/warehouse</value>
<description>location of defaultdatabase for the warehouse</description>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>hdfs://hadoopNameNode節點加埠號/temp</value>
</property>
新增系統環境變數
export HIVE_HOME=Hive安裝目錄
export PATH=$HIVE_HOME/bin:$PATH
source 環境變數檔案,使得環境變數生效。
紅色部分是需要在預設配置檔案中修改修改的部分。
7 啟動服務
nohup hive --service hiveserver2&8 檢驗hive是否安裝成功
在hive所在機器,輸入命令hive,此時會進入hive的命令輸入介面,輸入“show tables;”,如果顯示OK,說明hive已經安裝成功了。
相關推薦
hive1.2.1安裝指南
Hive安裝指南 該文件是建立在已經安裝好hadoop和jdk的基礎上,並且已經設定好HADOOP_HOME環境變數以及JAVA_HOME環境變數, 在hadoop機群的主節點(192.168.22.135)上安裝。 1 下載安裝包 從htt
Hive1.2.1安裝和使用(基於Hadoop2.6.0)
安裝hive,這裡使用mysql作為hive的metastore; Ubuntu 15.10虛擬機器中安裝mysql方法請看:http://kevin12.iteye.com/admin/blogs/2280771Hadoop2.6.0叢集安裝:http://kevin12
hive1.2.1版本安裝
Hive只在一個節點上安裝即可 1.上傳tar包 2.解壓 tar -zxvf hive-1.2.1.tar.gz -C /usr/local mv hive-1.2.1 hive 3.安裝mysql資料庫(切換到root使用者)(裝在哪裡沒有限制,只有能聯通
CentOS7+Hadoop2.7.2(HA高可用+Federation聯邦)+Hive1.2.1+Spark2.1.0 完全分散式叢集安裝
本文件主要記錄了Hadoop+Hive+Spark叢集安裝過程,並且對NameNode與ResourceManager進行了HA高可用配置,以及對NameNode的橫向擴充套件(Federation聯邦) 1VM網路配置 將子網IP設定為192.168.1.0: 將閘道器設定
ubuntu16.04安裝hive1.2.1的hwi
下載:apache-hive-1.2.1-src.tar apache-hive-1.2.1-src.tar 解壓,cd apache-hive-1.2.1-src/hwi 命令:jar cfM hive-hwi-1.2.1.war -C web . 複製到:hiv
Hive1.2.1的安裝過程
一、環境說明: 1、Ubuntu 14.0.4的作業系統; 2、Hadoop2.7.2的偽分佈模式; 在準備安裝Hive之前要確保Hadoop能夠正常執行; 3、Hive必須部署在一臺能夠訪問到HDFS的機器上; 二、安裝步驟: 2.1、解壓與測試: 1、解壓apache-
hive安裝配置(hive1.2.1)
環境centOS 7 hive的安裝比較簡單,只需要在一臺機器上配置即可。 由於hive的一些功能要藉助資料庫實現,所以要先裝好mysql。 一.安裝MySql 1.下載MySQL # 下載mysql源安裝包 shell> wget http://dev.mys
CentOS7安裝Hive1.2.1內嵌derby模式(Hadoop2.6)
1. Hadoop環境,參考: 2. tar XXX 你懂的 3. 新增環境變數 vi /hadoop/hive-1.2.1/bin/hive-config.sh export JAVA_HOME=/usr/java/jdk1.8.0_65 export HADOOP_H
hadoop2.7.3完全分散式安裝-docker-hive1.2.1-hiveserver2-weave1.9.3
0.環境介紹: 1)ubuntu14.04 docker映象 地址:https://github.com/gaojunhao/ubuntu14.04 2)hadoop2.7.3 地址:http://www.apache.org/dyn/closer.cgi/hadoop/c
hive1.2.1配置及其啟動方式(mysql安裝及配置)
注意紅色標記部分為可變動1.上傳tar包2.解壓tar -zxvf hive-1.2.1.tar.gz3.安裝mysql資料庫 推薦yum 線上安裝mysql yum install mysql mysql-server mysql-devel 完成後,用 /etc/
(轉) Hadoop1.2.1安裝
安裝目錄 文件復制 reduce mat 數據保存 jdk1.7 mapreduce tput cat 環境:ubuntu13 使用的用戶為普通用戶。如:用戶ru jdk安裝略 1、安裝ssh (1) Java代碼 sudo apt-get install op
nagios客戶端之nrpe3.2.1安裝
init nagios插件 源碼 load 啟動 files plugin ubunt tar.gz 1、刪除dpkg安裝的nrpedpkg -l | grep nrpedkpg -P nagios-nrpe-server 2、ubuntu下nrpe3.2.1安裝 下載nr
zabbix3.2.1安裝graphtrees插件
上下 官網 apach zabbix3.2 nload 直接 aik alt 下載 https://blog.csdn.net/liang_baikai/article/details/53542317 graphtree介紹 由於zabbix的圖像顯示一塊不太友好,圖像沒
在CDH上用外部Spark2.2.1安裝和配置 CarbonData
表示 相關 iyu top arch slaves path 中央倉庫 tar -zcvf 在CDH上用外部Spark2.2.1 (hadoop free版本)standalone 模式安裝和配置 CarbonData ===================
Android Studio 3.2.1安裝問題解決辦法
由於公司設定代理伺服器,導致安卓工程一直停留在gradle中迴圈,解決辦法如下: 修改兩個檔案,在目錄C:\Users\Administrator.20181015CSB\.gradle下: gradle.properties init.gradle 其中: 【gradle.
hive1.2.1整合hbase遇到的坑
通常我們會整合hive與hbase,通過建立hive外部表,進行一些增刪改查hbase表,hive1.2.1整合hbase1.2.6,遇到了一些坑,通過修改了幾行hive原始碼,重新編譯hive-hbase-handler-1.2.1.jar包替換hive lib目錄下原本那個hive-
elasticsearch 5.2.1安裝問題解答
1、啟動 elasticsearch 如出現異常 can not run elasticsearch as root 解決方法:建立ES 賬戶,修改資料夾 檔案 所屬使用者 組 2、啟動異常:ERROR: bootstrap checks failed syst
事無鉅細 Hive1.2.1 Hiveserver搭建詳解
上文介紹了Hadoop2.6.4叢集搭建的詳細步驟。現在我們在此基礎上,搭建Hiveserver。同樣,事無鉅細,難免跑題。 環境需求列表 Hive1.2版本開始,依賴Java1.7+,0.14-1.1版本依賴Java1.6+。推薦用
kubernetes1.8.1安裝指南,離線安裝,內網安裝_Kubernetes中文社群
使用kubeadm部署k8s叢集 三步裝叢集:[離線包地址](https://market.aliyun.com/products/56014009/cmxz022571.html#sku=yuncode1657100000) 基礎環境 關閉swap swapoff -a 再把/etc/fst
大資料學習環境搭建(CentOS6.9+Hadoop2.7.3+Hive1.2.1+Hbase1.3.1+Spark2.1.1)
node1192.168.1.11node2192.168.1.12node3192.168.1.13備註NameNodeHadoopYY高可用DateNode YYYResourceManager YY高可用NodeManagerYYYJournalNodes YYY奇數個,至少3個節點ZKFC(DFSZK