1. 程式人生 > >Mysql匯入資料量較大的SQL檔案

Mysql匯入資料量較大的SQL檔案

問題描述:Navicat for Mysql 匯入資料量較大的sql檔案時,會提示操作失敗,如圖,
這裡寫圖片描述

解決方法: 採用mysql source命令匯入;
操作步驟:
1. 開啟cmd,輸入命令:mysql -h localhost -u root -p
2. 輸入資料庫密碼,如圖:
這裡寫圖片描述
3. 查詢當前使用者下的資料庫: show databases;
這裡寫圖片描述
4. 找到你要匯入資料庫的資料庫名,輸入命令: use databaseName; databaseName為你要匯入的資料庫名。
這裡寫圖片描述
5. 最後一步,輸入命令: “source sql檔案路徑;”, 如: source d:\test.sql;
這裡寫圖片描述


6. 檢視結果:
這裡寫圖片描述

匯入成功!

相關推薦

Mysql匯入料量SQL檔案

問題描述:Navicat for Mysql 匯入資料量較大的sql檔案時,會提示操作失敗,如圖, 解決方法: 採用mysql source命令匯入; 操作步驟: 1. 開啟cmd,輸入命令:

mysql匯入sql檔案,出現MySQL server has gone away的解決方法

問題描述:工作需要檢視備份資料,故將mysql資料庫的定時備份資料匯入到mysql中,出現如下圖所示問題。 使用命令執行: mysql> use auction-oa Database changed mysql&g

MySQL Insert料量導致報錯 MySQL server has gone away

接手了同事的專案,其中有一個功能是儲存郵件模板(包含圖片),同事之前的做法是把圖片進行base64編碼然後存在mysql資料庫中(欄位型別為mediumtext)然後儲存三張圖片(大概400k)的時候報錯MySQL server has gone away 然後檢視官方文件https://dev.mysql

webservice傳輸料量的情況的解決方案

class CompressSoapExtension : SoapExtension     {         ///<summary>/// 舊流         ///</summary>private Stream _originStream =null;         /

爭對mysql料量比較時優化的幾點建議

1、優化你的sql和索引,比如優化你的sql語句的寫法,不要把sql語句寫的太複雜,使用“臨時表”暫存中間結果等; 2、加快取,比如使用memcached,redis等; 3、如果以上都做了後,還是慢,可以考慮做主從複製或主主複製,讀寫分離,可以在應用層做,效率高,也可以用三方工具,        第三方工具

oracle資料庫料量時更新資料慢問題

           這今天在研究kettle工具,是一款國外純java開發的開源ETL工具,抽取資料確實非常方便,大家有空可以去下載下來試試看,方便之處在於它不用安裝,解壓完了就能直接用了(必須提前配置jdk和jre環境到系統環境中)。今天要說的不是這款軟體,問題是由使用這個軟體引起的,我在抽取資料後需

MySQL匯入csv、excel或者sql檔案

1.匯入csv檔案 使用如下命令: mysql> load data infile "your csv file path" into table [tablename] fields terminated by ',' 上面的csv檔案以’,’

Mysql匯入sql檔案過慢問題解決

首先需要改動下mysql的配置,這個也是我自己在網上找的,我感覺網上的比較亂,所以自己就整理了一下,也是對自己遇到問題的一個記錄吧!       1. 改動MySQl配置的語句:            set global max_allowed_packet=3000000

mysql匯入.sql檔案報錯處理

在使用SQLyog匯入資料庫時,出現了報錯提示(資料庫連線已斷開)。檢視後發現錯誤時由於匯入時用的.sql檔案過大導致的。 首先查看了下.sql檔案大小為360M,然後使用sql語句查詢資料庫最大支援

如何匯入sql檔案到虛擬主機mysql資料庫

大部分網站虛擬主機為了安全起見,都限制了通過命令或者phpMyAdmin匯入大sql檔案到mysql資料庫,例如godaddy只允許站長通過phpMyAdmin上傳不超過2m的sql檔案,但實際上我們要匯入到虛擬主機的sql檔案遠遠大於2m。幸好我們還是可以使用一些第三方工具來輔助實現匯入大sql檔案到網站虛

Mysql資料匯入SQL檔案問題

0.前言 最近工作中經常遇到mysql資料庫匯入大SQL檔案的問題,動輒幾個G的SQL檔案匯入,一些常見的資料庫管理工具根本操作不了,而且mysql自身的配置也有侷限,特此將整理後的匯入過程記

MySQL料量分頁SQL語句優化

分頁程式原理很簡單,這裡就不多說了,本篇文章主要說的是在資料表記錄量比較大的情況下,如何將分頁SQL做到更優化,讓MySQL執行的更快的方法。 一般的情況下,我們的分頁SQL語句是這樣的:

mysql查詢哪個表料量

use information_schema;select table_name,table_rows from tables where table_schema='cargo_new' order by table_rows desc limit 3 -- cargo_new (選擇資料庫)

Mysql中使用JDBC流式查詢避免料量導致OOM

一、前言 java 中MySQL JDBC 封裝了流式查詢操作,通過設定幾個引數,就可以避免一次返回資料過大導致 OOM。 二、如何使用 2.1 之前查詢 public void selectData(String sqlCmd) throws SQLException {    v

sql server2017從MySQL匯入料到SQL Server時報錯:截斷行處理設定指定截斷時出錯解決方案

今天晚上在跑SQL Server代理作業時報錯: 錯誤: 0xC020902A,位於 credit_ious_instalment, 源 - 查詢 [2]: “源 - 查詢”由於發生截斷而失敗,而且針對“源 - 查詢.輸出[ADO NET 源輸出].列[ious_no]”的截斷行處理設定

料量下的SQL Server資料庫自身優化

原文: http://www.d1net.com/bigdata/news/284983.html 1.1:增加次資料檔案          從SQL SERVER 2005開始,資料庫不預設生成NDF資料檔案,一般情況下有一個主資料檔案(MDF)就夠了,但是有些大型的資

QT快速讀取料量的Excel檔案

     最近寫的一個專案中,有需要讀取資料量很大(有10個sheet,每個sheet有65535行11列的資料)的Excel檔案,用了COM和QODBC兩種方法讀取,速度很慢。 你可能會問,為啥不把資料放在資料庫裡,那樣讀取的速度更快?當然,需求要求是可以從資料庫或者從E

利用poi將excel表中資料讀取存入mysql資料庫(料量比較

最近被老大安排了一個任務,利用程式將excle表中的資料讀取到,做處理,然後存進資料庫。接到任務的時候人是懵逼的。但是安排的任務也得硬著頭皮完成。現將做的東西記錄如下,方便以後查詢。 這個小demo的原型是在網上找的,demo連結如下 http://www.cnblogs.

如果料量特別的時候應該如何優化sql語句

1.你所有的關聯欄位,應該在相應表中有唯一索引,最好是主鍵 2.資料量過大,如果你cdb_members的記錄很多,遠遠大於500條,可以考慮改變程式,先從此表裡面獲取500條資料,然後在迴圈裡面每條資料庫關聯獲取其它表的資訊,這樣就不需要先對五個表做連結。儘量不適用聯合

資料庫匯入資料時,料量導致報錯問題

當資料庫匯入資料時,資料量很大容易導致一些問題 在mysql安裝目錄下,找到my.ini檔案,開啟此檔案在最下面加入以下一段程式碼: wait_timeout=2880000 interactive_timeout =2880000 max_allowed_packet=1