Sparksql整合HIVE的步驟
阿新 • • 發佈:2018-12-17
//Spark和hive進行整合
hive版本是 1.2.1,考慮到相容性
1.安裝hive(可選)
2.在MySql中建立使用者
CREATE USER 'root'@'%' IDENTIFIED BY '123456';
GRANT all privileges ON hivedb.* TO 'root'@'%';
flush privileges;
3.將配置好的hive-site.xml 放入$SPARK-HOME/conf目錄下
4.將hadoop的core-site.xml和hdfs-site.xml都放入到Spark的conf目錄下
vi /etc/profile
//hadoop配置檔案的目錄
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.3/etc/hadoop
5.然後啟動HDFS,接下來啟動Spark
6.執行spark-sql並制定mysql連線驅動位置
bin/spark-sql \
--master spark://hadoop01:7077 \
--driver-class-path /usr/local/apache-hive-1.2.1-bin/lib mysql-connector-java-5.1.39.jar
7.執行hivesql
建立sparkSession時,加上對Hive的支援
enableHiveSupport()
spark.sql("CREATE TEMPOARY FUNCTION ip2Long as '包名+類名+方法名'")