博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
提高批量插入数据的方法
阅读量:4314 次
发布时间:2019-06-06

本文共 1332 字,大约阅读时间需要 4 分钟。

1.insert into demo(`a`,`b`,`c`)values('111','222','333'),('444','555','6666'),('777','888','9999'),....;

的效率优于insert into demo(`a`,`b`,`c`)values('111','222','333');insert into demo(`a`,`b`,`c`)values('444','555','666');...

 

补充:2016-02-26

a.对于插入,优先使用:insert into table_name(column-1,column-2,column-3...)values('a','b','c',..),('aa','bb','cc',..),('aaa','bbb','ccc',..);

b.开启事物,然后执行插入操作,会大大提高插入数据的效率。如:

START TRANSACTION;   ### begin; insert into .... commit; 当然,mysql中存储引擎innodb支持事物,myisam并不支持,,如果要使用事物。 engine=innodb; alter table table_name engine=innodb; ..... 都可以。 C.如果a与C结合起来使用,效果会更好。 拓展:

注意事项:

aa. SQL语句是有长度限制,在进行数据合并在同一SQL中务必不能超过SQL长度限制,通过max_allowed_packet配置可以修改,默认是1M。

在my.ini中

[mysqldump]

quick
max_allowed_packet=16M

bb. 事务需要控制大小,事务太大可能会影响执行的效率。MySQL有innodb_log_buffer_size配置项,超过这个值会日志会使用磁盘数据,这时,效率会有所下降。所以比较好的做法是,在事务大小达到配置项数据级前进行事务提交。

 [mysqld]

innodb_log_buffer_size=2M

..................

2.如果你从不同客户插入很多行,能通过使用INSERT DELAYED语句得到更高的速度.语法:

LOW_PRIORITY刚好相反,在所有其他用户对表的读写完后才进行插入。语法:

对应的还有:

 

3.如果进行批量插入,可以增加bulk_insert_buffer_size变量值的方法来提高速度,但是,这只能对myisam表使用。

对数据库的配置:bulk_insert_buffer_size = n

[mysqld]

#新添加

bulk_insert_buffer_size = 10000

 

4.当从一个文本文件装载一个表时,使用LOAD DATA INFILE。这通常比使用很多INSERT语句快20倍。对于这种方法,我有相关随笔的介绍。

 

5. 根据应用情况使用replace语句代替insert。

 6.根据应用情况使用ignore关键字忽略重复记录。

 

转载于:https://www.cnblogs.com/wuheng1991/p/5169153.html

你可能感兴趣的文章
测试与发布
查看>>
Timus 1014. Product of Digits
查看>>
14软件工程第七次作业
查看>>
继承的特点与注意事项
查看>>
C02面向对象
查看>>
Thunder团队第二周 - Scrum会议2
查看>>
转 sql删除重复记录
查看>>
Yum数据库错误
查看>>
HDOJ树形DP专题之考研路茫茫——空调教室
查看>>
《结对-蓝牙考勤系统-测试过程》
查看>>
PAT 1034. Head of a Gang
查看>>
微信分享
查看>>
《数据结构》第1章:绪论
查看>>
基于域名的虚拟主机(最常用)
查看>>
第八讲 shiro 整合 ssm
查看>>
Lucene
查看>>
[LeetCode] 83. Remove Duplicates from Sorted List 移除有序链表中的重复项
查看>>
CNN反卷积理解
查看>>
chrome 中firstChild老是出错
查看>>
Java 7 新的 try-with-resources 语句,自动资源释放
查看>>