資料匯入mysql遇到的問題
將.XML檔案匯入資料庫,出現以下錯誤的資料,無法匯入:
這時要停止匯入,檢視loginmort檔案(日誌檔案,裡面包含了錯誤原因)
錯誤1 如圖:
[Err] 1406 - Data too long for column 'Body' at row 2
第2行資料的Body列超出最大長度,修改方法只需從設計表中將此列的長度由預設的255變為更大,或者改為其他型別,如text。
修改完成後儲存修改再進行匯入,將不會出現此類問題
.
錯誤2:
[Err] 1366 - Incorrect string value: '\xC2\xAB...\xC2...' for column 'Body' at row 66
此類問題為編碼錯誤,具體錯誤如下:
(1).建立資料庫的時候資料編碼設定錯誤
(2).連線資料庫的時候資料編碼設定錯誤
(3).建立表的時候資料編碼設定錯誤
建議重現建立資料庫或表,將正確的資料編碼設定好(如utf-8)
相關推薦
利用Python將Excel表中的資料匯入Mysql資料庫
python操作Excel 需要匯入xlrd包,可以通過pip install xlrd 一鍵安裝。 #coding=utf-8 ''' python 將指定目錄下的excel檔案匯入到資料庫中 ''' # 引入資料庫包 import pymysql # 引入操作excel包
Shell_mysql命令以及將資料匯入Mysql資料庫
連線MYSQL資料庫 mysql -h${db_ip} -u${db_user} -p${db_pawd} -P${db_port} -D${db_name} -s -e "${sql}" db_ip:主機地址 db_user :資料庫使用者名稱 db_pwd:密碼 db
資料匯入mysql遇到的問題
將.XML檔案匯入資料庫,出現以下錯誤的資料,無法匯入: 這時要停止匯入,檢視loginmort檔案(日誌檔案,裡面包含了錯誤原因) 錯誤1 如圖: [Err] 1406 - Data too long for column 'Body' at row 2 第2行
SparkSql將資料來源Hive中資料匯入MySql例項
背景:能看到這篇部落格的夥計兒,應該是充分理解了[理想是豐滿的 現實是骨感] 這句名言了吧。為啥子這麼說呢,那就是 不就是個SparkSql從hive匯入到mysql嗎 有什麼技術含量,但是呢 不斷地踩坑ing填坑ing。 廢話不多說,直接上硬菜。 package co
用Navicat把csv資料匯入mysql
不說廢話,直接操作: 1.獲取csv資料,用office另存為功能把excel另存為csv(當然這是我自己資料本身是存在excel裡的緣故,如果你本來就是csv資料,則忽略這一步。) 2.用Navicat進行匯入:隨便建立一個數據庫,然後在表那裡點選匯入嚮導 選
如何使用SQLyog將大量資料匯入mysql資料庫
之前是通過SQLyog將excel檔案儲存為csv檔案,然後匯入mysql資料庫,不過由於資料量大,建表語句寫的很麻煩(先copy Excel橫表的第一行(屬性那一行),然後轉置,到txt檔案,寫建表語句,加逗號),昨天用一天的時間琢磨這個問題,在前輩的指點下,發現這個能匯
使用POI操作Excel將資料匯入mysql
原本的工程:POI-Excel.zip(下載)【需要自己註冊了一個碼雲帳號才可以下載】 利用POI將excel資料匯入資料庫目前還是比較流行,但是表格某些欄位需要進行特殊處理,比如日期,excel的日期在java裡面讀出來是一個數字(number)並非日期格式的字串,等等。1
用Navicat完成Oracle資料匯入MySQL
今天老闆給了個看似容易的任務——把資料從Oracle轉到MySQL,我那個激動啊,想著都是一家出的產品應該很簡單吧,plsql應該就能直接轉吧,然而一如往常,領導的任務從來都不會簡單。。。。(不會加表情大家自行腦補) 那麼正文開始: 工具:Navicat 1
Python3將excel中的資料匯入mysql資料庫
import pymysql # xlrd 為 python 中讀取 excel 的庫,支援.xls 和 .xlsx 檔案 # import xlrd # openpyxl 庫支援 .xlsx 檔案的讀寫 from openpyxl.reader.excel import
利用LOAD DATA將csv檔案中的資料匯入MySQL
先貼程式碼: #coding=utf-8 import csv, os, re import MySQLdb _PATH = 'D:/bike_sharing_data/trip_data/trip_history/' _TABLE_NAME = 't
將excel資料匯入mysql中
1.開啟存放資料段的Excel檔案,處理好列的關係,將不必要的列都刪除掉,將Excel另存為CSV格式。2.在MySQL中建表,列的名字和資料格式都要和Excel中的一致。建表格式參考:CREATE TABLE IF NOT EXISTS data1( id INT UN
linux下大檔案編碼轉碼及將oracle中資料匯入mysql
這篇文章有不少廢話,只是為了發洩一下。如果讀者找需要解決的問題的辦法,直接無視這些廢話。 最近做的專案要將Oracle中資料匯入Mysql, 資料量約有兩千萬條,慶幸的是隻有一張表,而且資料結構比較簡單。在這個過程中遇到不少坑,現在
【資料庫】load data infile上億條的海量資料匯入mysql的那些事
因為做股票金融的,每天產生的資料量是很大的,一個月幾十億的交易記錄,也常有出現,特別是今年大跌之前大漲那會。 作為程式設計師,問題來了,有時需要將一些並不是特別符合規範的csv檔案匯入資料庫中,而且每個檔案有十幾萬行,而這樣的檔案幾萬個,於是幾十億的記錄如何匯入資料庫呢?
怎麼把sql server資料匯入mysql本地資料庫?
tuimu-dev資料庫是mysql資料庫,下面的sqlserver資料庫是sqlserver的,而我要把sqlserver裡面的AIMSEN_BASE表裡面的accont資料導進來,如下圖:選中tuimu-dev-----然後直接下一步。。。。。。 最後 一個按鈕 開
mongodb匯出資料匯入mysql
匯出:mongoexport --port=27000 -d lyric -c lyric --csv -f songName,artistName,content -o lyric_e_1.csv 匯入:先mysql
將.txt檔案資料匯入MySQL資料庫出現首字母亂碼問題
問題:最近做實訓時將.txt檔案匯入MySQL資料庫時出現了亂碼,最初時所有的都出現了亂碼,查了下百度,發現是編碼問題,於是將.txt檔案另存為UTF-8編碼,問題解決,但是又出現了第一個字母亂碼的問題
使用sqoop將hive資料匯入mysql例項
1.環境配置 CentOS6.5 hadoop2.2 jdk1.7.0 sqoop1.4.4 zookeeper3.4.5 Mysql 14.14 2.在mysql上建立表 先按照需求在
從MongoDB抽取資料匯入mysql
# -*- coding: utf-8 -*- from pymongo import MongoClient import io import traceback import sys reload(sys) sys.setdefaultencoding('u
oracle資料匯入mysql的一種笨辦法
想把oracle表中的資料匯入到mysql中,上網找了下,自己也試了,結果就這種笨辦法蠻實用的。 先把oracle表中的資料另存在excel表中,再把excel表中資料匯入到mysql中。 我這裡要將oracle中表eventlogs的資料匯入到
將excel資料匯入到mysql資料庫
框架用的是thinkphp3.2框架 //將Excel匯入到資料庫的思想是:先將Excel中的資料轉為php陣列,然後執行addAll操作 public function upload() { ini_set('memory_limit', '1024M'); if (!empty(