1. 程式人生 > >分散式Hive環境安裝

分散式Hive環境安裝

1.HIVE安裝

hive是基於Hadoop的一個數據倉庫工具,可以將結構化的資料檔案對映為一張資料庫表,並提供簡單的sql查詢功能,可以將sql語句轉換為MapReduce任務進行執行。 其優點是學習成本低,可以通過類SQL語句快速實現簡單的MapReduce統計,不必開發專門的MapReduce應用,十分適合資料倉庫的統計分析。所有首先需要安裝分散式環境的hadoop程式(參考:http://blog.csdn.net/cweeyii/article/details/54172900

1.1 Hive安裝

  • hive安裝
#本人hive是安裝在虛擬機器hadoop-master上
#下載和hadoop配套的hive環境
wget http://archive.apache.org/dist/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz tar -zxvf apache-hive-1.2.1-bin.tar.gz mv apache-hive-1.2.1-bin hive #配置path環境 echo "export HIVE_HOME=/home/hadoop/workspace/hive">> ~/.bash_profile source ~/.bash_profile echo "export PATH=$HIVE_HOME/bin:$PATH">> ~/.bash
_profile source ~/.bash_profile
  • hive遠端模式配置
    配置mysql遠端訪問
#在本地機器上安裝mysql服務(本地機器hadoop-macbook)[具體安裝過程不再此介紹]
#測試mysql服務是否正常(如果能正常登陸則正常)
mysql -h127.0.0.1 -P3306 -uroot -proot --default-character-set=utf8
#測試遠端連線是否開啟(登陸到虛擬機器hadoop-master)
mysql -hhadoop-macbook -P3306 -uroot -proot --default-character-set
=utf8 #如果正常跳過這步 mysql -h127.0.0.1 -P3306 -uroot -proot --default-character-set=utf8 (本地登陸) use mysql SELECT User, Password, Host FROM user; #存在如下一條記錄(表示root使用者在localhost這個ip可以遠端訪問mysql,即只允許本地訪問) | root | *81F5E21E35407D884A6CD4A731AEBFB6AF209E1B | localhost| #可以新增新的記錄,指定ip為要訪問機器就行 #為簡單允許所有ip以root使用者連線該機器 UPDATE user SET Host='%' WHERE User='root' AND Host='localhost' LIMIT 1; | root | *81F5E21E35407D884A6CD4A731AEBFB6AF209E1B | % | #再次測試應該可以正常連線 mysql -hhadoop-macbook -P3306 -uroot -proot --default-character-set=utf8 #建立hive的元資料庫(建立時為空,hive在第一啟動時會將元資料表記錄到該資料庫) create database hive #上傳mysql-connection的jar包到hive的lib包中,使得hive支援選擇mysql作為hive元資料庫 scp [email protected]:/Users/wenyi/Downloads/ /home/hadoop/workspace/hive/lib

修改hive配置檔案

#修改hive-env.sh(在conf目錄下)
mv hive-env.sh.template hive-env.sh
#新增如下內容
export HADOOP_HOME=/home/hadoop/workspace/hadoop#設定hadoop的目錄)
export HIVE_CONF_DIR=/home/hadoop/workspace/hive/conf (#設定hive的conf目錄)
#設定日誌檔案位置
mv hive-log4j.properties.template hive-log4j.propertities
#指定hive的log目錄
hive.log.dir=/home/hadoop/workspace/hive/logs
#設定hive基本屬性
vim hive-site.xml
#內容如下:
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hive.metastore.warehouse.dir</name>
      <value>/home/hadoop/workspace/hive/warehouse</value>
    </property>
    <property>
        <name>hive.exec.scratchdir</name>
        <value>/home/hadoop/workspace/hive/scratchdir</value>
    </property>
    <property>
        <name>hive.querylog.location</name>
        <value>/home/hadoop/workspace/hive/logs</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://hadoop-macbook:3306/hive</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>
</configuration>
#hive.metastore.warehouse.dir :資料倉庫的位置,預設是/user/hive/warehouse (hadoop中的檔案目錄,非本機)
#hive.exec.scratchdir hive用來儲存不同階段的map/reduce的執行計劃的目錄,同時也儲存中間輸出結果,預設是/tmp/<user.name>/hive,我們實際一般會按組區分,然後組內自建一個tmp目錄儲存; (hadoop中的檔案目錄,非本機)
#hive.querylog.location 查詢日誌目錄
#剩下設定mysql jdbc連結

2.HIVE使用

#保證hadoop已經正常啟動
#啟動hive,第一次啟動會往資料庫中建立一些hive元資料表格
hive
#如果出現filesystem close相關的目錄或者檔案許可權問題
hadoop fs -chmod 777 /home/hadoop/workspace/hive/scratchdir
#成功則進入hive提示符
#建立一個hive表
hive> create table test1(tid int, tname string);
OK
Time taken: 1.365 seconds
hive>

#檢視mysql中hive元資料表
mysql> show tables;
+---------------------------+
| Tables_in_hive            |
+---------------------------+
| BUCKETING_COLS            |
| CDS                       |
| COLUMNS_V2                |
| DATABASE_PARAMS           |
| DBS                       |
| FUNCS                     |
| FUNC_RU                   |
| GLOBAL_PRIVS              |
| PARTITIONS                |
| PARTITION_KEYS            |
| PARTITION_KEY_VALS        |
| PARTITION_PARAMS          |
| PART_COL_STATS            |
| ROLES                     |
| SDS                       |
| SD_PARAMS                 |
| SEQUENCE_TABLE            |
| SERDES                    |
| SERDE_PARAMS              |
| SKEWED_COL_NAMES          |
| SKEWED_COL_VALUE_LOC_MAP  |
| SKEWED_STRING_LIST        |
| SKEWED_STRING_LIST_VALUES |
| SKEWED_VALUES             |
| SORT_COLS                 |
| TABLE_PARAMS              |
| TAB_COL_STATS             |
| TBLS                      |
| VERSION                   |
+---------------------------+
#檢視剛才建立的hive表元資料資訊
mysql> select * from TBLS;
+--------+-------------+-------+------------------+--------+-----------+-------+----------+---------------+--------------------+--------------------+
| TBL_ID | CREATE_TIME | DB_ID | LAST_ACCESS_TIME | OWNER  | RETENTION | SD_ID | TBL_NAME | TBL_TYPE      | VIEW_EXPANDED_TEXT | VIEW_ORIGINAL_TEXT |
+--------+-------------+-------+------------------+--------+-----------+-------+----------+---------------+--------------------+--------------------+
|      1 |  1483863200 |     1 |                0 | hadoop |         0 |     1 | test1    | MANAGED_TABLE | NULL               | NULL               |
+--------+-------------+-------+------------------+--------+-----------+-------+----------+---------------+--------------------+--------------------+

hive安裝完成

相關推薦

分散式Hive環境安裝

1.HIVE安裝 hive是基於Hadoop的一個數據倉庫工具,可以將結構化的資料檔案對映為一張資料庫表,並提供簡單的sql查詢功能,可以將sql語句轉換為MapReduce任務進行執行。 其優點是學習成本低,可以通過類SQL語句快速實現簡單的MapReduc

Hive 環境安裝部署

resp www 詳情 apr 所有權限 hive數據 使用 database root Hive在客戶端上的安裝部署 一、客戶端準備: 到這我相信大家都已經打過三節點集群了,如果是的話則可以跳過一,直接進入二。如果不是則按流程來一遍! 1、克隆虛擬機,見我的博客

【完全分散式Hadoop】(五)jdk1.8環境安裝

1.、下載jdk1.8   有些Centos系統可能已經有openjdk了,但是為了更清晰的瞭解我們的環境,我們一般採用二進位制包,進行環境配置   解除安裝系統自帶的openjdk rpm -e --nodeps `rpm -qa | grep java`   CDH官方ha

Hive環境安裝

  1.首先需要搭建hadoop環境:hadoop叢集的搭建 2.mysql資料庫的安裝:CentOS安裝mysql原始碼包 3.建立Hive資料庫 4.上傳hive安裝包到/sur/local/src中,並且解壓縮 cd /usr/local/src tar -zxvf

Hive環境安裝部署(完美安裝)(叢集內或叢集外都適用)(含解除安裝自帶mysql安裝指定版本)

  Hive 安裝依賴 Hadoop 的叢集,它是執行在 Hadoop 的基礎上。 所以在安裝 Hive 之前,保證 Hadoop 叢集能夠成功執行。   同時,比如我這裡的master、slave1和slave2組成的hadoop叢集。hive的安裝可以安裝在任一一個節點上,當然,也可以安裝在

Linux環境hive安裝

一 Hive簡介 在Hadoop生態圈中屬於資料倉庫的角色。Hive能夠管理Hadoop中的資料,同時可以查詢Hadoop中的資料。它提供了一系列的工具,可以用來進行資料提取轉化載入(ETL),這是一種可以儲存、查詢和分析儲存在Hadoop中的大規模資料的機制;  Hiv

Centos下偽分散式安裝Hive以及安裝可能出現的問題

安裝要求:Hive 1.2.1   MySQL 5.7    JDK 1.81.下載解壓cd /mk/soft  tar -xvzf apache-hive-1.2.1-bin.tar.gz -C /appl/  cd /appl  mv apache-hive-1.2.1-

Docker實戰(十五):Docker安裝Hive環境

Docker安裝Hive環境 Hive安裝 # Hive必須執行在Hadoop之上,則需要先安裝Hadoop環境,而且還需要MySQL資料庫,具體Hadoop安裝請參考上一篇文章,我們這裡繼承上一篇已經安裝好的Hadoop映象 # 下載Hive $

hadoop-hive本地和偽分散式模式的安裝

前言:關於虛擬機器安裝hive,hadoop的資料林林總總,對於初學者很難甄別;             如下是按照官方doc,一步步經過實踐的一種方法,思路比我搜到網上的帖子更清晰;            初學,難免有錯誤的地方,敬請指正。 一、虛擬機器hadoop的安

Jenkins教程(一)分散式環境安裝

Jenkins持續整合 Jenkins是一個開源軟體專案,是基於Java開發的一種持續整合工具,用於監控持續重複的工作,旨在提供一個開放易用的軟體平臺,使軟體的持續整合變成可能。。 相關下載 相關下載: Jenkins叢集規劃

Ubuntu14下Hadoop開發&lt;1&gt; 基礎環境安裝

oot jar包 臺式機 解壓 span ice href 安裝samba lan 準備了一臺淘汰的筆記本。單核CPU。3G內存。160G硬盤;準備一個2G的U盤在官網下載了64位的14.04版本號(麒麟)的ISO。下載UNetbootin(Ubuntu專用U盤安裝工

Linux環境安裝ssh2擴展模塊

可能 == xxx details default sep mark text 依賴 環境:Linux環境(Centos or RedHat) 1、確認環境已安裝php-5 # rpm -qa|grep php-5php-5.3.3-48.el6_8.x86_64 2、安

JEESZ分布式系統環境安裝

rest服務 spring redis dubbo+zookeeper springmvc+mybatis java分布式架構 1.環境準備 1.開發工具: Eclipse IDE(建議使用高一點的版本) 2.JDK版本:JDK1.7 3.項目管理: Maven3.1.1

python3.6.1+selenium3.0環境安裝問題及解決方法

pre trace service java版本 erro back res exec rem 腳本:(打開火狐瀏覽器,進入百度網頁,搜索selenium) from selenium import webdriver browser = webdriver.F

java環境安裝手冊

java環境 運行 輸入 高級 屬性 變量 代碼 utf-8 devel 1. JDK 1.1. 下載JDK 1.2. 安裝JDK JDK安裝路徑:C:\Java\jdk1.7.0_79\ JRE安裝路徑:C:\Java\jre7

sharepoint環境安裝

新建 abcd ring security deb 磁盤 http service bd09 SharePoint 2013 測試環境安裝配置指南 軟件版本 Windows Server 2012 標準版 SQL Server 2012 標準版 SharePoint Se

.net core2 preview 環境安裝

inux tps pre 版本 net windows linu .com 安裝 第一步,安裝linix 第二步,安裝vs2017 preview 參照:https://www.microsoft.com/net/core/preview#windowscmd 第三步,

Eclipse環境安裝rust

path bug document download com dev rust deb 環境 參考 https://rustdt.github.io/ https://github.com/RustDT/RustDT/blob/latest/documentation/

linux環境安裝node.js環境和pm2

linux node.js pm2 1.安裝腳本,請仔細閱讀逐行執行: #!/bin/bash #檢查是否已經安裝 rpm -qa | grep python #查版本 python #最好是重新安裝 Python推薦版本( >= v2.5.0 & < 3.0.0 )

OCP 11G 實驗環境安裝文檔 ( RedHat5.5 + Oracle11g )

into root.sh virt 用戶和組 ip地址 tdi rec directory erro RedHat5.5 linux下Oracle11g軟件安裝 一、配置虛擬機 為了創建和配置虛擬機,你需要添加硬件設備如磁盤和cpu,在你開始安裝之前,創建一個windows