本地搭建hadoop叢集--hive安裝2.3.3
2.3.3和2以下的安裝區別就是 如下波浪線
需要在執行hive之前 進入 bin目錄
schematool -dbType derby -initSchema
這裡可以用mysql 。derby都行。 具體支援哪些jdbc 作為元資料底層 這個就不曉得了。目前用的最多的是 mysql
這裡我就省略了。
下面說到了 多使用者操作 建議使用mysql資料庫。derby不行。
第一步解壓
apache-hive tar包
第二步
到hive>conf 目錄下
cp -a hive-env.sh.template hive-env.sh
cp -a hive-default.xml.template hive-site.xml
編輯第一個檔案
設定 hadoop目錄
hive的conf目錄
hive jar包路勁
編輯第二個檔案
在開始的地方加入以下內容
手動 建立 hive 目錄下 tmp臨時資料夾 pwd 把目錄拷貝進去
登陸使用者名稱稱 我是root
<property>
<name>system:java.io.tmpdir</name>
<value></value>
</property>
<property>
<name>system:user.name</name>
<value></value>
</property>
調整好以後 進入bin目錄執行 初始化
schematool 那個
如果報錯
org.apache.hadoop.hive.metastore.HiveMetaException: Schema initialization FAILED! Metastore state would be inconsistent !!
進入bin目錄 刪除 metastore_db目錄
輸入hive 就可以了
不過 在初始化之前必須建立 /tmp 和 /user/hive/warehouse 目錄並賦予 許可權 777你懂的。
環境變數 配置好 hive_home
在建立檔案的時候一定要把叢集啟動起來,然後 hadoop fs -mkdir 那兩個檔案
以下就是我 搭建2.3.3成功 執行截圖