sqoop從mysql導資料到hive異常
1 異常資訊:
com.mysql.jdbc.exceptions.jdbc4.MySQLDataException: '18446744073387431615' in column '5' is outside valid range for the datatype BIGINT. at sun.reflect.NativeConstructorAccessorImpl.newInstance0(NativeConstructorAccessorImpl.java:0) at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) at java.lang.reflect.Constructor.newInstance(Constructor.java:525) at com.mysql.jdbc.Util.handleNewInstance(Util.java:411) at com.mysql.jdbc.Util.getInstance(Util.java:386)
2 這是官網給出的解釋:
24.2.2. UNSIGNED columns Columns with type UNSIGNED in MySQL can hold values between 0 and 2^32 (4294967295), but the database will report the data type to Sqoop as INTEGER, which will can hold values between -2147483648 and \+2147483647. Sqoop cannot currently import UNSIGNED values above 2147483647.
3 原因:
資料庫有測試的髒資料,unsigned的bigint值超出了範圍,刪除該資料重導。
相關推薦
sqoop從mysql導入hive的一些問題
cat strong sin form org catalog comm error stp 1.錯誤:Sqoop:Import failed: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.Hi
sqoop從mysql導資料到hive異常
1 異常資訊: com.mysql.jdbc.exceptions.jdbc4.MySQLDataException: '18446744073387431615' in column '5' is
使用sqoop從mysql導入數據到hive
sbin asto prop 文章 存儲 iat bin sleep AI 前言 這篇文章主要是用sqoop從mysql導入數據到hive時遇到的坑的總結。 環境: 系統:Centos 6.5 Hadoop:Apache,2.7.3 Mysql:5.1.73
解決sqoop從mysql匯入到hive表的多分割槽問題
參考:http://blog.csdn.net/liweiwei71/article/details/23434189 對於分割槽表 drop table track_log; create table track_log ( id
資料從mysql中匯入hive表中異常解決:
將資料從mysql中匯入hive表中,出現異常ERROR hive.HiveConfig: Could not load org.apache.hadoop.hive.conf.HiveConf.
使用 Sqoop 從 MySQL 同步表到 Hive 叢集
Sqoop 是 Cloudera 公司創造的一個數據同步工具,現在已經完全開源了。 目前已經是 hadoop 生態環境中資料遷移的首選,另外還有 ali 開發的 DataX 屬於同類型工具,由於社群的廣泛使用和文件的健全,調研之後決定使用 Sqoop 來做我們之後資料同步的工具。
Sqoop從MySQL匯入資料到Hive的Shell指令碼
因工作需求,要將mysql的資料匯入到Hive中通過Spark SQL進行分析,經過一翻周折,完成了這個自動化指令碼,算是實現需求的第一步,也算是在Shell程式設計這條路上算是邁出了第一步。
從mysql將資料匯入hive
[[email protected] ~]$ sqoop import --connect jdbc:mysql://Hadoop48/toplists --verbose -m 1 --username root --hive-overwrite --direct --table award --
用sqoop將mysql的資料匯入到hive表中,原理分析
Sqoop 將 Mysql 的資料匯入到 Hive 中 準備Mysql 資料 如圖所示,準備一張表,資料隨便造一些,當然我這裡的資料很簡單。 編寫命令 編寫引數檔案 個人習慣問題,我喜歡把引數寫到檔案裡,然後再命令列引用。 vim mysql-info, #
用sqoop將mysql的資料匯入到hive表中
用sqoop將mysql的資料匯入到hive表中 1:先將mysql一張表的資料用sqoop匯入到hdfs中 準備一張表 需求 將 bbs_product 表中的前100條資料導 匯出來 只要id brand_id和 na
sqoop 匯入mysql資料到hive中,把多個mysql欄位資料型別轉換hive資料型別
如:sqoop import --connect "jdbc:mysql://192.168.2.42:3306/test?useUnicode=true&characterEncoding=utf-8" --username smap --password ****
DBUnit向mysql導資料異常
C:\Users\Administrator\Desktop\defaultDB - mysql專用\build.xml:50: org.dbunit.DatabaseUnitException: java.sql.SQLException: Incorrect strin
SQOOP從mysql匯入資料到hive問題
需要將mysql一張表的資料匯入到hive表當中 初始的執行命令如下: sqoop import --connect jdbc:mysql://10.1.x.x:3306/dbname?characterEncoding=utf-8 --username roo
sqoop從mysql匯入超大表(3億資料)出錯記錄
背景: 從mysql中將三張大表匯入到hive,分別大小為6000萬,3億,3億。 使用工具: sqoop 匯入指令碼: #!/bin/bash source /etc/profile source ~/.bash_profile sqoop import -D
python從mysql導出數據導excel
python excel 導出# coding:utf8import sys reload(sys)sys.setdefaultencoding('utf8')# author: 'zkx'# date: '2018/3/11'# Desc:從數據庫中導出數據
Navicat從mysql導完整表(包括表結構與其中數據)到另一臺機器的mysql中
網上 操作 數據表 tail 研究 新的 完成 新建 文件 碰到一個需要把數據表從本地mysql導入到服務器的mysql中的問題,在網上搜了下,沒有發現說的很清楚的操作,很多操作都是利用命令行來實現,自己研究了一下,發現Navicat有自己的導入導出功能,可以比較容易的實現
spark從mysql讀取資料(redis/mongdb/hbase等類似,換成各自RDD即可)
package com.ws.jdbc import java.sql.DriverManager import org.apache.spark.rdd.JdbcRDD import org.apache.spark.{SparkConf, SparkCont
學習筆記:從0開始學習大資料-28. solr儲存資料在hdfs並從mysql匯入資料
環境 centos7 hadoop2.6.0 solr-7.5.0 一、建立hdfs為儲存的core 1.在hdfs建立索引資料目錄 [[email protected] bin]# hadoop fs -mkdir /user/solr/ [[email&
解決mysql導資料時,格式不對、匯入慢、丟資料的問題
如果希望一勞永逸的解決慢的問題,不妨把你的mysql升級到mysql8.0吧,mysql8.0預設的字符集已經從latin1改為utf8mb4,因此現在UTF8的速度要快得多,在特定查詢時速度提
使用sqoop從MySQL匯入資料到HBase
工作需求:將MySQL資料庫的資料傳入HBase 第一次將工作經驗上傳: hadoop叢集是在35 MySQL資料庫是在31 最終因為35不能訪問31,所以換了完成方法 實現步驟 下載 下載地址 需要的jar包 jdbc 驅