SparkSQL和Hive整合
-a. 啟動hive的metastore服務
[[email protected] ~]$ /opt/cdh-5.3.6/hive-0.13.1-cdh5.3.6/bin/hive --service metastore &
Q>
org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083.
at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:93)at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:75)
at org.apache.hadoop.hive.metastore.TServerSocketKeepAlive.<init>(TServerSocketKeepAlive.java:34)
at org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5192)
at org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5134)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
Exception in thread "main" org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083.
at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:93)
at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:75)
at org.apache.hadoop.hive.metastore.TServerSocketKeepAlive.<init>(TServerSocketKeepAlive.java:34)
at org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5192)
at org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5134)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
[[email protected] ~]$ netstat -apn|grep 9083
(Not all processes could be identified, non-owned process info
will not be shown, you would have to be root to see it all.)
tcp 0 0 0.0.0.0:9083 0.0.0.0:* LISTEN 6097/java
A>
[[email protected] ~]$ kill -9 6097
[5] 6413
[[email protected] ~]$ Starting Hive Metastore Server
相關推薦
SparkSQL和Hive整合
-a. 啟動hive的metastore服務[[email protected] ~]$ /opt/cdh-5.3.6/hive-0.13.1-cdh5.3.6/bin/hive --service metastore &Q>org.apache.th
SparkSQL和hive on Spark
SparkSQL簡介 SparkSQL的前身是Shark,給熟悉RDBMS但又不理解MapReduce的技術人員提供快速上手的工具,hive應運而生,它是當時唯一執行在Hadoop上的SQL-on-hadoop工具。但是MapReduce計算過程中大量的中間磁碟落地過程消耗了大量的I/O,降低的執行效率,為
Impala和Hive整合Sentry、Kerberos認證
關於 Kerberos 的安裝和 HDFS 配置 kerberos 認證,請參考 HDFS配置kerberos認證。 關於 Kerberos 的安裝和 YARN 配置 kerberos 認證,請參考 YARN配置kerberos認證。 關於 Kerberos 的安裝和 Hive 配置
sparksql與hive整合
編輯 $HIVE_HOME/conf/hive-site.xml,增加如下內容: Prettyprint程式碼 <property> <name>hive.metastore.uris</name> <value>thrift://ma
hbase和hive整合實戰
hbase表對映到hive表中 1 在hbase中建立表: 表名hbase_test, 有三個列族 f1、f2、f3 create 'hbase_test',{NAME => 'f1',VERSIONS => 1},{NAME => 'f2',
ElasticSearch和Hive做整合
oop 執行 nod last space property style pan mil 1、上傳elasticsearh-hadoop的jar包到server1-hadoop-namenode-01上 在server1-hadoop-namenode-01上執行:
SparkSQL與Hive的整合
cto home 添加 usr onf cal apach local -c 其他的配置hive基本配置就不記錄了!! 1. 拷貝$HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf/2. 在$SPARK_HOME/conf/目錄
關於本人hbase整合sqoop和hive框架的遇到的那些坑
關於本人hbase整合sqoop和hive框架的遇到的那些坑 hbase: hbase-1.3.1-bin.tar.gz hive:apache-hive-1.2.2-bin.tar.gz 要實現的功能:實現建立hive表同時關聯到hbase在logs日誌查看出現異常資
hive和hbase整合,Caused by: java.lang.ClassNotFoundException
Hive-1.2.1與HBase-1.1.2的整合 這裡的整合是指,將HBase作為儲存資料的庫,由Hive作為連線橋樑 在Hive中建立表時,出現了 FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.q
SparkSQL On Hive和spark的記憶體分配問題
Spark On Hive 1.SparkSQL整合Hive,需將hive-site.xml複製到{SAPRK_HOME/conf}目錄下,即可!! a.將hive-site.xml複製到{SAPRK_HOME/conf}目錄下; b.將hi
hive整合spark和mysql
一、Hive安裝 1.Hive簡介 Hive是Facebook開發的構建於Hadoop叢集之上的資料倉庫應用,可以將結構化的資料檔案對映為一張資料庫表,並提供完整的SQL查詢功能,可以將SQL語句轉換為MapReduce任務進行執行。
配置sparksql讀hive,dataframe和RDD,將RDD轉換成Dataframe,檢視,withcolumn
文章目錄 退出spark-shell 使用spark自帶檔案建立dataframe 退出安全模式 配置spark讀hive 1.pom檔案增加 2.resource下加檔案 3.修改h
Phoenix三貼之三:Phoenix和hive的整合
0.前期準備,偽分散式的hbase搭建(這裡簡單演示一下) Hbase的偽分散式安裝部署(使用三個程序
建立hive和hbase整合表報錯原因之一
我的hive版本是apache-hive-1.2.1-bin.tar在hive裡建立hive和hbase整合表的內部表報錯資訊如下:FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.ex
hive學習教程(五):hive和Hbase整合
一、Hive整合HBase原理 Hive與HBase整合的實現是利用兩者本身對外的API介面互相進行通訊,相互通訊主要是依靠hive-hbase-handler-0.9.0.jar工具類,如下圖 Hive與HBase通訊示意圖 二、具體步驟
springmvc和json整合配置方法
repl bin blank converter htm spring配置 tpm port 三方 配置方法一 1、導入第三方的jackson包,jackson-mapper-asl-1.9.7.jar和jackson-core-asl-1.9.7.jar。 2、spri
(十七)Hibnernate 和 Spring 整合
blob ns-3 管理 comm wire support Coding jar包 jdbc 一、Hibnernate 和 Spring結合方案: 方案一: 框架各自使用自己的配置文件,Spring中加載Hibernate的配置文件。 方案二: 統一由Spri
SpringMvc和Mybatis整合總結
web images bean 技術 數據庫 tro control 自己 alt 1.先配置mybatis,測試讀取數據庫 2.自己測試數據 3.配置spring和springmvc, PS:配置web.xml,這樣就不用getBean了 4.配置Controlle
Spring+SpringMVC+MyBatis深入學習及搭建(十四)——SpringMVC和MyBatis整合
文件拷貝 conf lips glib ide doc from ive body 轉載請註明出處:http://www.cnblogs.com/Joanna-Yan/p/7010363.html 前面講到:Spring+SpringMVC+MyBatis深入學習及搭建(
深入淺出JMS(四)--Spring和ActiveMQ整合的完整實例
訂閱 實例 schema -i 同步和異步 生產 技術分享 .com factor 第一篇博文深入淺出JMS(一)–JMS基本概念,我們介紹了JMS的兩種消息模型:點對點和發布訂閱模型,以及消息被消費的兩個方式:同步和異步,JMS編程模型的對象,最後說了JMS的優點。 第二