1. 程式人生 > >本地搭建hadoop叢集--hive安裝2.3.3

本地搭建hadoop叢集--hive安裝2.3.3

2.3.3和2以下的安裝區別就是 如下波浪線

需要在執行hive之前 進入 bin目錄

schematool -dbType derby -initSchema

這裡可以用mysql 。derby都行。 具體支援哪些jdbc 作為元資料底層 這個就不曉得了。目前用的最多的是 mysql

這裡我就省略了。

下面說到了 多使用者操作 建議使用mysql資料庫。derby不行。
 

第一步解壓

apache-hive tar包

第二步

到hive>conf 目錄下

cp -a   hive-env.sh.template  hive-env.sh

cp -a hive-default.xml.template  hive-site.xml

編輯第一個檔案

設定 hadoop目錄

hive的conf目錄

hive jar包路勁

編輯第二個檔案

在開始的地方加入以下內容

手動 建立 hive 目錄下 tmp臨時資料夾  pwd 把目錄拷貝進去

登陸使用者名稱稱 我是root

<property>
     <name>system:java.io.tmpdir</name>
     <value></value>
  </property>
  <property>
     <name>system:user.name</name>
     <value></value>
   </property>

調整好以後 進入bin目錄執行  初始化 

schematool 那個

如果報錯

org.apache.hadoop.hive.metastore.HiveMetaException: Schema initialization FAILED! Metastore state would be inconsistent !!

進入bin目錄 刪除 metastore_db目錄

輸入hive 就可以了

不過 在初始化之前必須建立 /tmp 和 /user/hive/warehouse 目錄並賦予 許可權 777你懂的。

環境變數 配置好 hive_home

在建立檔案的時候一定要把叢集啟動起來,然後 hadoop fs -mkdir 那兩個檔案

以下就是我 搭建2.3.3成功 執行截圖