1. 程式人生 > >Sparksql整合HIVE的步驟

Sparksql整合HIVE的步驟

//Spark和hive進行整合
hive版本是 1.2.1,考慮到相容性
1.安裝hive(可選)
2.在MySql中建立使用者
CREATE USER 'root'@'%' IDENTIFIED BY '123456';
GRANT all privileges ON hivedb.* TO 'root'@'%';
flush privileges;
3.將配置好的hive-site.xml 放入$SPARK-HOME/conf目錄下
4.將hadoop的core-site.xmlhdfs-site.xml都放入到Spark的conf目錄下

vi /etc/profile
//hadoop配置檔案的目錄
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.3/etc/hadoop

5.然後啟動HDFS,接下來啟動Spark
6.執行spark-sql並制定mysql連線驅動位置
bin/spark-sql \
--master spark://hadoop01:7077 \
--driver-class-path /usr/local/apache-hive-1.2.1-bin/lib mysql-connector-java-5.1.39.jar
7.執行hivesql

建立sparkSession時,加上對Hive的支援
    enableHiveSupport()
    
    spark.sql("CREATE TEMPOARY FUNCTION ip2Long as '包名+類名+方法名'")