1. 程式人生 > >spark本地除錯hive

spark本地除錯hive

本地環境資訊 spark2.1.0 hadoop:2.6.0 hive:2.1.1 scala:2.11.8 java:1.8.0_141 mysql

1 保證hive可用,配置hive-site.xml如下,下面的配置使用的是mysql作為元資料儲存工具,所以還需要將mysql驅動包複製到hive安裝路徑的lib目錄下,需要配置hive使用mysql座位底層儲存工具schematool -initSchema -dbType mysql

<configuration>  
   <property>  
        <name>javax.jdo.option.ConnectionURL</name>  
        <value>jdbc:mysql://10.118.58.27:3306/hive?createDatabaseIfNotExist=true</value>  
    </property>  
    <property>  
        <name>javax.jdo.option.ConnectionDriverName</name>  
        <value>com.mysql.jdbc.Driver</value>  
    </property>  
    <property>  
        <name>javax.jdo.option.ConnectionUserName</name>  
        <value>××××</value>  
    </property>  
    <property>  
        <name>javax.jdo.option.ConnectionPassword</name>  
        <value>××××</value>  
    </property>  
    <property>    
   <name>hive.metastore.schema.verification</name>    
   <value>false</value>    
    <description>    
    Enforce metastore schema version consistency.    
    True: Verify that version information stored in metastore matches with one from Hive jars.  Also disable automatic    
          schema migration attempt. Users are required to manully migrate schema after Hive upgrade which ensures    
          proper metastore schema migration. (Default)    
    False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.    
    </description>    
 </property> 
 <property>
	<name>hive.server2.thrift.bind.host</name>
	<value>bigData</value>
 </property>
 <property>
        <name>hive.server2.thrift.port</name>
        <value>10000</value>
 </property>
</configuration>  

2 保證本地spark-sql可以正常呼叫(通常需要將hive-site拷貝到spark的conf目錄下,如果hive底層使用的是mysql,則需要將mysql的驅動包也複製到spark的lib路徑)

3 spark程式設計,我使用的是idea,通過maven建立scala工程,如果要通過本地除錯,需要將hive-site.xml複製到工程的resources目錄下,同時將mysql/spark_hive的jar包也新增到專案路徑下,由於spark2.1.0使用sparkSession,支援hive,所以在初始化sparkSession時只需啟用hive即可,如下:

objectTestWork {
  def 
main(args: Array[String]): Unit = { val sparkConf = new SparkConf() args.map(_.split("=")).filter(_.size==2).map(x=>sparkConf.set(x(0),x(1))) val spark = SparkSession.builder() .config(sparkConf) .appName("test").enableHiveSupport() // .master("spark://10.118.58.27:7077") .getOrCreate() spark.sql("select * from selfwork.srczkw"
).show() } }

web預設埠:

namenode的webUI埠:50070
yarn的web埠:8088
spark叢集的web埠:8080
spark-job監控埠:4040

相關推薦

spark本地除錯hive

本地環境資訊 spark2.1.0 hadoop:2.6.0 hive:2.1.1 scala:2.11.8 java:1.8.0_141 mysql 1 保證hive可用,配置hive-site.xml如下,下面的配置使用的是mysql作為元資料儲存工具,所以還需要將my

Spark本地除錯和程式重啟checkpoint恢復碰到的問題

Spark本地除錯和程式重啟checkpoint恢復碰到的問題 1、產生問題的背景   今天自測Spark程式碰到兩個問題,(1)、啟動流式程式報錯 (2)、重啟Spark程式,同一個物件的部分資料恢復了,一部分沒有恢復   第一個問題的報錯資訊:   第二個問題的結果資訊: 2、排查

Hive本地除錯

一準備 二事情遠沒這麼簡單呢 1 winutilsexe找不到 2 系統找不到指定的檔案 3 系統找不到指定的路徑

spark學習14之使用maven快速切換本地除錯spark版本

1解釋 有時候叢集裝了某個版本的spark,想再裝一個版本,想簡單點,可以選擇本地使用idea中的maven。 本文主要是從spark1.5.2切換到spark1.6.1 2.程式碼: spark-1.5.2: <?xml version

Spark本地開發與遠端除錯環境搭建

先決條件 遠端除錯環境搭建過程詳述 開啟Intellij IDEA,File->New ->Project 選擇Scala,然後next 配置好JDK、Scala版本,填入專案名稱,然後Finish 4.匯入spark-assembly-1.5.0

Spark-Sql整合hive,在spark-sql命令和spark-shell命令下執行sql命令和整合調用hive

type with hql lac 命令 val driver spark集群 string 1.安裝Hive 如果想創建一個數據庫用戶,並且為數據庫賦值權限,可以參考:http://blog.csdn.net/tototuzuoquan/article/details/5

spark sql 查詢hive表並寫入到PG中

clas sel append nec pro 增加 word postgres erro import java.sql.DriverManager import java.util.Properties import com.zhaopin.tools.{DateU

大數據學習系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive

pat 修改配置文件 防止 聲明 mir rac detail jre_home true 引言 在之前的大數據學習系列中,搭建了Hadoop+Spark+HBase+Hive 環境以及一些測試。其實要說的話,我開始學習大數據的時候,搭建的就是集群,並不是單機模式和

微信開發公眾號本地除錯

使用vps的ssh埠轉發功能,將請求轉發到本地。 1.  設定vps 的ngxin server { listen 80; server_name wechat.heartwith.me; location / { prox

Spark SQL 訪問hive 出現異常:org.datanucleus.exceptions.NucleusDataStoreException

異常: org.datanucleus.exceptions.NucleusDataStoreException: Exception thrown obtaining schema column information from datastore 出現問題原因:  1、hi

本地用tomcat和eclipse如何除錯vue、springboot:第一種eclipse本地除錯

20181019 Luke Liu: 首先要實現Eclipse Vue開發,我在下一篇部落格中介紹 前端vue專案是garcol_wx,在eclipse 的terminal中輸入npm run dev,執行程式。 在後臺專案Garcol中執行debug garco

微信小程式Push場景本地除錯方法

微信小程式Push場景本地除錯方法 問題描述 開發微信小程式時,會出現正常進入沒問題,但是通過 push 進入出現 bug 的場景,這時就尷尬,總不能每次為了測試 push 場景而去稽核通過,以下是在本地除錯 push 場景的方法; 解決方案 開發者工具新增

Spark-Sql整合hive,在spark-sql命令和spark-shell命令下執行sql命令和整合呼叫hive

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

Windows下本地除錯 hadoop 的 mapreduce

​​1、準備工作 本地模式下除錯hadoop:下載winutils.exe和hadoop.dll hadoop.lib等windows的hadoop依賴檔案放在D:\proc\hadoop\bin目錄下並設定環境變數:HADOOP_HOME=D:\proc\hadoop 新增PATH=%

第四天 -- Accumulator累加器 -- Spark SQL -- DataFrame -- Hive on Spark

第四天 – Accumulator累加器 – Spark SQL – DataFrame – Hive on Spark 文章目錄 第四天 -- Accumulator累加器 -- Spark SQL -- DataFrame -- Hive on Spark

微信公眾號開發本地除錯方法

前言: 這幾天一直想搞個公眾號玩一玩。然後去阿里雲買了個雲伺服器ECS(學生9.9/月),因為一開始接觸雲伺服器,所以選了個window系統。然後在本地建立了一個簡單的web專案(jyc),用來認證token。在雲伺服器裡面搭了JDK和tomcat。然後高高興興的把web專案打包成wa

spark本地環境的搭建到執行第一個spark程式

搭建spark本地環境 搭建Java環境 (1)到官網下載JDK 官網連結:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html (2)解壓縮到指定的目錄 >sudo t

Hadoop系列 - 本地除錯程式碼(不使用jar包)

問題 最近學習Hadoop過程中遇到這樣一個問題:本地開發mapreduce程式,如果mapreduce到輸入和輸出都是設定本地,那麼是可以進行本地Debug的。但是在我把輸入源設成伺服器的HDFS,輸出設為HBase時,發現應用啟動就報某個mapper或Outputformat類找不到

Spark本地開發環境搭建與遠端debug設定

快速看完《Spark大資料處理 技術、應用與效能優化》前四章後,對Spark有了一個初步的瞭解,終於踏出了第一步,現在需要在Spark叢集中做些測試例子,熟悉一下開發環境和開發的流程。本文主要總結了如何在本地使用Maven搭建開發環境以及如何進行遠端debug。由於採用的Spark是

Spark本地安裝及Linux下偽分散式搭建

title: Spark本地安裝及Linux下偽分散式搭建 date: 2018-12-01 12:34:35 tags: Spark categories: 大資料 toc: true 個人github部落格:Josonlee’s Blog 文章目錄