Mysql 的批量update 和insert 效率问题

wswxfwps 2016-03-23 10:45:08
关于数据的批量入库问题,不知道大家能做到什么程序?

我现在做到这样的程序,10w的条数据,30个字段,数据类型做了两种测试,一种是 varchar(45), 一种是 char(20)


执行函数 10w/ 30个字段
varchar(45) char(20)
insert into 19.5/19.9 23.6/20.5
update 42.4/44.2 42.5/44.4
replace into 47.9/54.3/56.2 52.4/52.1



结论:
1、原本打算用replace into 来替代 insert 和update,现在通过测试发现,效率太不行了。
所以打算在程序逻辑上来区分 insert和update。
2、char(20) 定长类型貌似对于数据库更新来说并没有优势,不定长的varchar(45)(长度还长些)的效率还高些! 是不是定长的char 在查询过程中才能体现出优势来了?
3、 10w条数据insert的时间19s 左右,update居然要40几s,是不是太长了? 各位有没有什么办法可以提高效率了?

...全文
971 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
zhu19774279 2016-03-24
  • 打赏
  • 举报
回复
在你的另外一个帖子回复了,这种情况想快就上多线程+多核CPU+固态硬盘。
wswxfwps 2016-03-23
  • 打赏
  • 举报
回复
wswxfwps 2016-03-23
  • 打赏
  • 举报
回复
顶顶
wswxfwps 2016-03-23
  • 打赏
  • 举报
回复

56,681

社区成员

发帖
与我相关
我的任务
社区描述
MySQL相关内容讨论专区
社区管理员
  • MySQL
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧