1. 程式人生 > >hive1.2.1安裝指南

hive1.2.1安裝指南

Hive安裝指南

       該文件是建立在已經安裝好hadoop和jdk的基礎上,並且已經設定好HADOOP_HOME環境變數以及JAVA_HOME環境變數, 在hadoop機群的主節點(192.168.22.135)上安裝。

1      下載安裝包

    從http://mirror.bit.edu.cn/apache/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz 中,獲取安裝包。

2      解壓hive包

安裝hive與hadoop的使用者保持一致,轉到hive所需安裝的目錄下,執行tar -xzvf apache-hive-1.2.1-bin.tar.gz

3      上傳postgresql驅動包

從安裝包資料夾中上傳postgresql的驅動包postgresql-9.3-1102-jdbc41.jar(獲取對應的postgresql資料庫驅動包)放在HIVE_HOME/lib下。

4      在HDFS上建立目錄

1、執行以下命令:

hadoop fs -mkdir       /tmp

hadoop fs -mkdir       /user

hadoop fs -mkdir       /user/hive

hadoop fs -mkdir      /user/hive/warehouse

hadoop fs -chmod 777   /tmp

hadoop fs -chmod 777   /user/hive/warehouse

2、進入目錄/data/hadoop/hadoop-2.5.2/share/hadoop/yarn/lib中,刪除jline-0.9.94.jar,然後將/home/imax/apache-hive-1.2.1-bin/lib中的jline-2.12.jar拷貝到當前目錄以替換jline-0.9.94.jar。

5      Postgresql建立資料庫,載入初始化指令碼資料。

   通過postgresql客戶端,建立資料庫名hive。從apache-hive-1.2.1-bin/scripts/metastore/upgrade/postgres資料夾獲取初始化指令碼hive-schema-1.2.0.postgres.sql、hive-txn-schema-0.13.0.postgres.sql,放在對應postgresql所在主機的目錄/opt/PostgreSQL/9.4/bin/下,用於執行匯入hive-schema-1.2.0.postgres.sql檔案的命令。匯入命令為psql -d hive -fhive-schema-1.2.0.postgres.sql。

6      配置hive-site.xml

先進入/data/hadoop/apache-hive-1.2.1-bin/conf目錄下,cphive-default.xml.template  hive-site.xml生成hive-site.xml。

<property>

 <name>javax.jdo.option.ConnectionURL</name>

  <value>jdbc:postgresql://postgresql連線的對應埠號/hive</value>

  <description>JDBC connect string for aJDBC metastore</description>

</property>

<property>

 <name>javax.jdo.option.ConnectionDriverName</name>

  <value>org.postgresql.Driver</value>

  <description>Driver class name for aJDBC metastore</description>

</property>

<property>

 <name>javax.jdo.option.ConnectionUserName</name>

  <value>連線postgresql資料庫使用者名稱(使用者需要有建立、讀寫表的許可權)</value>

  <description>username to use againstmetastore database</description>

</property>

<property>

 <name>javax.jdo.option.ConnectionPassword</name>

  <value>連線postgresql資料庫密碼</value>

  <description>password to use againstmetastore database</description>

</property>

 <property>

    <name>hive.metastore.warehouse.dir</name>

    <value>hdfs://hadoopNameNode節點加埠號/user/hive/warehouse</value>

    <description>location of defaultdatabase for the warehouse</description>

  </property>

 <property>

   <name>hive.exec.scratchdir</name>

    <value>hdfs://hadoopNameNode節點加埠號/temp</value>

  </property>

新增系統環境變數

export HIVE_HOME=Hive安裝目錄

export PATH=$HIVE_HOME/bin:$PATH

source 環境變數檔案,使得環境變數生效。

紅色部分是需要在預設配置檔案中修改修改的部分。

7     啟動服務

nohup hive --service hiveserver2&

8      檢驗hive是否安裝成功

在hive所在機器,輸入命令hive,此時會進入hive的命令輸入介面,輸入“show tables;”,如果顯示OK,說明hive已經安裝成功了。

相關推薦

hive1.2.1安裝指南

Hive安裝指南        該文件是建立在已經安裝好hadoop和jdk的基礎上,並且已經設定好HADOOP_HOME環境變數以及JAVA_HOME環境變數, 在hadoop機群的主節點(192.168.22.135)上安裝。 1      下載安裝包     從htt

Hive1.2.1安裝和使用(基於Hadoop2.6.0)

安裝hive,這裡使用mysql作為hive的metastore; Ubuntu 15.10虛擬機器中安裝mysql方法請看:http://kevin12.iteye.com/admin/blogs/2280771Hadoop2.6.0叢集安裝:http://kevin12

hive1.2.1版本安裝

Hive只在一個節點上安裝即可 1.上傳tar包 2.解壓 tar -zxvf hive-1.2.1.tar.gz -C /usr/local mv hive-1.2.1 hive 3.安裝mysql資料庫(切換到root使用者)(裝在哪裡沒有限制,只有能聯通

CentOS7+Hadoop2.7.2(HA高可用+Federation聯邦)+Hive1.2.1+Spark2.1.0 完全分散式叢集安裝

本文件主要記錄了Hadoop+Hive+Spark叢集安裝過程,並且對NameNode與ResourceManager進行了HA高可用配置,以及對NameNode的橫向擴充套件(Federation聯邦) 1VM網路配置 將子網IP設定為192.168.1.0: 將閘道器設定

ubuntu16.04安裝hive1.2.1的hwi

下載:apache-hive-1.2.1-src.tar apache-hive-1.2.1-src.tar  解壓,cd apache-hive-1.2.1-src/hwi  命令:jar cfM hive-hwi-1.2.1.war -C web .  複製到:hiv

Hive1.2.1安裝過程

一、環境說明: 1、Ubuntu 14.0.4的作業系統; 2、Hadoop2.7.2的偽分佈模式; 在準備安裝Hive之前要確保Hadoop能夠正常執行; 3、Hive必須部署在一臺能夠訪問到HDFS的機器上; 二、安裝步驟: 2.1、解壓與測試: 1、解壓apache-

hive安裝配置(hive1.2.1)

環境centOS 7 hive的安裝比較簡單,只需要在一臺機器上配置即可。 由於hive的一些功能要藉助資料庫實現,所以要先裝好mysql。 一.安裝MySql 1.下載MySQL # 下載mysql源安裝包 shell> wget http://dev.mys

CentOS7安裝Hive1.2.1內嵌derby模式(Hadoop2.6)

1. Hadoop環境,參考: 2. tar XXX 你懂的 3. 新增環境變數 vi /hadoop/hive-1.2.1/bin/hive-config.sh export JAVA_HOME=/usr/java/jdk1.8.0_65 export HADOOP_H

hadoop2.7.3完全分散式安裝-docker-hive1.2.1-hiveserver2-weave1.9.3

0.環境介紹: 1)ubuntu14.04 docker映象 地址:https://github.com/gaojunhao/ubuntu14.04 2)hadoop2.7.3 地址:http://www.apache.org/dyn/closer.cgi/hadoop/c

hive1.2.1配置及其啟動方式(mysql安裝及配置)

注意紅色標記部分為可變動1.上傳tar包2.解壓tar -zxvf hive-1.2.1.tar.gz3.安裝mysql資料庫   推薦yum 線上安裝mysql  yum install mysql mysql-server mysql-devel 完成後,用  /etc/

(轉) Hadoop1.2.1安裝

安裝目錄 文件復制 reduce mat 數據保存 jdk1.7 mapreduce tput cat 環境:ubuntu13 使用的用戶為普通用戶。如:用戶ru jdk安裝略 1、安裝ssh (1) Java代碼 sudo apt-get install op

nagios客戶端之nrpe3.2.1安裝

init nagios插件 源碼 load 啟動 files plugin ubunt tar.gz 1、刪除dpkg安裝的nrpedpkg -l | grep nrpedkpg -P nagios-nrpe-server 2、ubuntu下nrpe3.2.1安裝 下載nr

zabbix3.2.1安裝graphtrees插件

上下 官網 apach zabbix3.2 nload 直接 aik alt 下載 https://blog.csdn.net/liang_baikai/article/details/53542317 graphtree介紹 由於zabbix的圖像顯示一塊不太友好,圖像沒

在CDH上用外部Spark2.2.1安裝和配置 CarbonData

表示 相關 iyu top arch slaves path 中央倉庫 tar -zcvf 在CDH上用外部Spark2.2.1 (hadoop free版本)standalone 模式安裝和配置 CarbonData ===================

Android Studio 3.2.1安裝問題解決辦法

由於公司設定代理伺服器,導致安卓工程一直停留在gradle中迴圈,解決辦法如下: 修改兩個檔案,在目錄C:\Users\Administrator.20181015CSB\.gradle下: gradle.properties init.gradle 其中: 【gradle.

hive1.2.1整合hbase遇到的坑

通常我們會整合hive與hbase,通過建立hive外部表,進行一些增刪改查hbase表,hive1.2.1整合hbase1.2.6,遇到了一些坑,通過修改了幾行hive原始碼,重新編譯hive-hbase-handler-1.2.1.jar包替換hive lib目錄下原本那個hive-

elasticsearch 5.2.1安裝問題解答

1、啟動 elasticsearch 如出現異常  can not run elasticsearch as root   解決方法:建立ES 賬戶,修改資料夾 檔案 所屬使用者 組 2、啟動異常:ERROR: bootstrap checks failed syst

事無鉅細 Hive1.2.1 Hiveserver搭建詳解

上文介紹了Hadoop2.6.4叢集搭建的詳細步驟。現在我們在此基礎上,搭建Hiveserver。同樣,事無鉅細,難免跑題。 環境需求列表 Hive1.2版本開始,依賴Java1.7+,0.14-1.1版本依賴Java1.6+。推薦用

kubernetes1.8.1安裝指南,離線安裝,內網安裝_Kubernetes中文社群

使用kubeadm部署k8s叢集 三步裝叢集:[離線包地址](https://market.aliyun.com/products/56014009/cmxz022571.html#sku=yuncode1657100000) 基礎環境 關閉swap swapoff -a 再把/etc/fst

大資料學習環境搭建(CentOS6.9+Hadoop2.7.3+Hive1.2.1+Hbase1.3.1+Spark2.1.1)

node1192.168.1.11node2192.168.1.12node3192.168.1.13備註NameNodeHadoopYY高可用DateNode YYYResourceManager YY高可用NodeManagerYYYJournalNodes YYY奇數個,至少3個節點ZKFC(DFSZK