Hive的環境搭建
阿新 • • 發佈:2018-11-01
Hive是一種資料倉庫,可以使用sql語句去操作haoop中hdfs中的檔案查詢。(本質上是把Hive傳送的sql語句在內部轉換成可以執行的mapreduce程式),(迭代資料無法表達,處理時間較長等缺點)
首先,去官網下載Hive的-bin.tar.gz的壓縮包,然後傳送到虛擬機器上。
一:解壓:
tar -xzvf apache-hive-2.3.3-bin.tar.gz -C /opt/module
二:資料夾重新命名:(這一步可以不用配置,配置了方便以後好寫一些)
三:把 Hive 新增到 PATH 路徑中:
四:配置hive-env.sh檔案:
進入apache-hive-2.3.3-bin/conf目錄:
cp hive-default.xml.template hive-site.xml;
在hive-site.xml配置檔案中加上一下內容:
<property> <name>system:java.io.tmpdir</name> <value>/tmp</value> </property> <property> <name>system:user.name</name> <value>${user.name}</value> </property>
五:在hive-site.xml
檔案中找到下面 4 個屬性, 並修改為所示的值(733).
<name>hive.scratch.dir.permission</name>
<value>733</value>
六:找 Hadoop 的 core-site.xml
, 增加如下兩個屬性:
<property>
<name>hadoop.proxyuser.atguigu.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.atguigu.groups</name>
<value>*</value>
</property>
七:注意: 上面 atguigu
是你的的 Linux 登入的使用者名稱.
這上面參考的很多老師的資料,由於內部規定,所以就不貼出老師給我們的網址了,但是還是有必要要宣告一下,這個基本上大部分都是截的老師的圖,所以這個屬於老師的勞動成果,我也有必要尊重原創,感謝尚矽谷老師的資料。