1. 程式人生 > >sqoop從mysql導資料到hive異常

sqoop從mysql導資料到hive異常

1 異常資訊:

com.mysql.jdbc.exceptions.jdbc4.MySQLDataException: '18446744073387431615' in column '5' is outside valid range for the datatype BIGINT.
   at sun.reflect.NativeConstructorAccessorImpl.newInstance0(NativeConstructorAccessorImpl.java:0)
   at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
   at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
   at java.lang.reflect.Constructor.newInstance(Constructor.java:525)
   at com.mysql.jdbc.Util.handleNewInstance(Util.java:411)
   at com.mysql.jdbc.Util.getInstance(Util.java:386)

2 這是官網給出的解釋:

24.2.2. UNSIGNED columns
Columns with type UNSIGNED in MySQL can hold values between 0 and 2^32 (4294967295), but the database will report the data type to Sqoop as INTEGER, which will can hold values between -2147483648 and \+2147483647. Sqoop cannot currently import UNSIGNED values above 2147483647.

3 原因:

 資料庫有測試的髒資料,unsigned的bigint值超出了範圍,刪除該資料重導。

相關推薦

sqoopmysqlhive的一些問題

cat strong sin form org catalog comm error stp 1.錯誤:Sqoop:Import failed: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.Hi

sqoopmysql資料到hive異常

1 異常資訊: com.mysql.jdbc.exceptions.jdbc4.MySQLDataException: '18446744073387431615' in column '5' is

使用sqoopmysql入數據到hive

sbin asto prop 文章 存儲 iat bin sleep AI 前言 這篇文章主要是用sqoop從mysql導入數據到hive時遇到的坑的總結。 環境: 系統:Centos 6.5 Hadoop:Apache,2.7.3 Mysql:5.1.73

解決sqoopmysql匯入到hive表的多分割槽問題

參考:http://blog.csdn.net/liweiwei71/article/details/23434189 對於分割槽表 drop table track_log; create table track_log ( id                    

資料mysql中匯入hive表中異常解決:

將資料從mysql中匯入hive表中,出現異常ERROR hive.HiveConfig: Could not load org.apache.hadoop.hive.conf.HiveConf.

使用 Sqoop MySQL 同步表到 Hive 叢集

Sqoop 是 Cloudera 公司創造的一個數據同步工具,現在已經完全開源了。  目前已經是 hadoop 生態環境中資料遷移的首選,另外還有 ali 開發的 DataX 屬於同類型工具,由於社群的廣泛使用和文件的健全,調研之後決定使用 Sqoop 來做我們之後資料同步的工具。  

SqoopMySQL匯入資料到Hive的Shell指令碼

因工作需求,要將mysql的資料匯入到Hive中通過Spark SQL進行分析,經過一翻周折,完成了這個自動化指令碼,算是實現需求的第一步,也算是在Shell程式設計這條路上算是邁出了第一步。

mysql資料匯入hive

[[email protected] ~]$ sqoop import --connect jdbc:mysql://Hadoop48/toplists --verbose -m 1 --username root --hive-overwrite --direct --table award --

sqoopmysql資料匯入到hive表中,原理分析

Sqoop 將 Mysql 的資料匯入到 Hive 中 準備Mysql 資料 如圖所示,準備一張表,資料隨便造一些,當然我這裡的資料很簡單。 編寫命令 編寫引數檔案 個人習慣問題,我喜歡把引數寫到檔案裡,然後再命令列引用。 vim mysql-info, #

sqoopmysql資料匯入到hive表中

用sqoop將mysql的資料匯入到hive表中 1:先將mysql一張表的資料用sqoop匯入到hdfs中 準備一張表    需求 將 bbs_product 表中的前100條資料導 匯出來  只要id  brand_id和 na

sqoop 匯入mysql資料到hive中,把多個mysql欄位資料型別轉換hive資料型別

如:sqoop import --connect "jdbc:mysql://192.168.2.42:3306/test?useUnicode=true&characterEncoding=utf-8" --username smap --password ****

DBUnit向mysql資料異常

C:\Users\Administrator\Desktop\defaultDB - mysql專用\build.xml:50: org.dbunit.DatabaseUnitException: java.sql.SQLException: Incorrect strin

SQOOPmysql匯入資料到hive問題

需要將mysql一張表的資料匯入到hive表當中 初始的執行命令如下: sqoop import --connect jdbc:mysql://10.1.x.x:3306/dbname?characterEncoding=utf-8 --username roo

sqoopmysql匯入超大表(3億資料)出錯記錄

背景: 從mysql中將三張大表匯入到hive,分別大小為6000萬,3億,3億。 使用工具: sqoop 匯入指令碼: #!/bin/bash source /etc/profile source ~/.bash_profile sqoop import -D

pythonmysql出數據excel

python excel 導出# coding:utf8import sys reload(sys)sys.setdefaultencoding('utf8')# author: 'zkx'# date: '2018/3/11'# Desc:從數據庫中導出數據

Navicatmysql完整表(包括表結構與其中數據)到另一臺機器的mysql

網上 操作 數據表 tail 研究 新的 完成 新建 文件 碰到一個需要把數據表從本地mysql導入到服務器的mysql中的問題,在網上搜了下,沒有發現說的很清楚的操作,很多操作都是利用命令行來實現,自己研究了一下,發現Navicat有自己的導入導出功能,可以比較容易的實現

sparkmysql讀取資料(redis/mongdb/hbase等類似,換成各自RDD即可)

package com.ws.jdbc import java.sql.DriverManager import org.apache.spark.rdd.JdbcRDD import org.apache.spark.{SparkConf, SparkCont

學習筆記:0開始學習大資料-28. solr儲存資料在hdfs並mysql匯入資料

環境 centos7  hadoop2.6.0  solr-7.5.0 一、建立hdfs為儲存的core 1.在hdfs建立索引資料目錄 [[email protected] bin]# hadoop fs -mkdir /user/solr/ [[email&

解決mysql資料時,格式不對、匯入慢、丟資料的問題

    如果希望一勞永逸的解決慢的問題,不妨把你的mysql升級到mysql8.0吧,mysql8.0預設的字符集已經從latin1改為utf8mb4,因此現在UTF8的速度要快得多,在特定查詢時速度提

使用sqoopMySQL匯入資料到HBase

工作需求:將MySQL資料庫的資料傳入HBase 第一次將工作經驗上傳: hadoop叢集是在35 MySQL資料庫是在31 最終因為35不能訪問31,所以換了完成方法 實現步驟 下載 下載地址 需要的jar包 jdbc 驅