mysql生成千萬級的測試數據
阿新 • • 發佈:2018-01-23
成對 測試 nbsp 速度 contain check leave _for procedure
[sql] view plain copy
http://blog.csdn.net/dennis211/article/details/78076399
MYSQL打造千萬級測試數據
為了更好的測試MYSQL性能以及程序優化,不得不去制作海量數據來測試。我這裏的方法就是直接用uuid函數進行分配每條數據的不同內容。
1.首先創建測試表(card表)
[sql] view plain copy- CREATE TABLE `card` (
- `card_id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT ‘ID‘,
- `card_number` varchar(100) DEFAULT NULL COMMENT ‘卡號‘,
- PRIMARY KEY (`card_id`)
- ) ENGINE=MyISAM AUTO_INCREMENT=0 DEFAULT CHARSET=utf8 CHECKSUM=1 DELAY_KEY_WRITE=1 ROW_FORMAT=DYNAMIC
2.創建MYSQL存儲過程
[sql] view plain copy- DROP PROCEDURE IF EXISTS proc1;
- DELIMITER $$
- SET AUTOCOMMIT = 0$$
- CREATE PROCEDURE proc1()
- BEGIN
- DECLARE v_cnt DECIMAL (10) DEFAULT 0 ;
- dd:LOOP
- INSERT INTO card (card_number) VALUES (UUID());
- COMMIT;
- SET v_cnt = v_cnt+1 ;
- IF v_cnt = 10000000 THEN LEAVE dd;
- END IF;
- END LOOP dd ;
- END;$$
- DELIMITER ;
3.調用存儲過程,生成對應的測試數據
- call proc1;
我的機子大概是2分13秒的樣子生成完畢,每個人的機子各有不同,生成的時間也會不一樣。
4.來測試一下性能吧。
[sql] view plain copy- select * from card order by rand() limit 1; //6.5秒查詢完畢
- select * from card where card_number like ‘%xxx%‘; //3.7秒查詢完畢
在這樣的海量數據情況下,如果用到模糊查詢,那肯定會很慢,一般建議用全文檢索引擎來替代(如Sphinx),查詢速度就完全解決。
mysql生成千萬級的測試數據