hadoop大資料04---hive 的安裝配置
Centos 7
192.168.2.37 計算機名稱 master
192.168.2.38 計算機名稱 slave1
192.168.2.39 計算機名稱 slave2
hive 要使用到mysql ,所以先安裝mysql ,
hive 和mysql 都安裝在 192.168.2.37 上面
1,mysql 安裝,請參考我之前寫的一篇mysql 安裝教程,mysql 安裝用的是root 賬號
2,hive 的安裝,用的是haoop 使用者
tar -zxf apache-hive-2.1.1-bin.tar.gz
mv apache-hive-2.1.1-bin hive
tar -zxf mysql-connector-java-5.1.47.tar.gz
cp /opt/hadoop/mysql-connector-java-5.1.47/mysql-connector-java-5.1.47.jar /opt/hadoop/hive/lib/
vi /opt/hadoop/hive/conf/hive-site.xml
```
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
</configuration>
```
3,設定環境變數,在最後加上
cd
vi .bashrc
```
#hive
export HIVE_HOME=/opt/hadoop/hive
export HIVE_CONF_DIR=${HIVE_HOME}/conf
export PATH=$PATH:/opt/hadoop/hive/bin
```
source .bashrc
4,啟動
schematool -dbType mysql -initSchema
5,驗證,去mysql 資料庫,看是否會新建一個名詞為hive 的資料庫