Mysql 的批量update 和insert 效率问题
关于数据的批量入库问题,不知道大家能做到什么程序?
我现在做到这样的程序,10w的条数据,30个字段,数据类型做了两种测试,一种是 varchar(45), 一种是 char(20)
执行函数 10w/ 30个字段
varchar(45) char(20)
insert into 19.5/19.9 23.6/20.5
update 42.4/44.2 42.5/44.4
replace into 47.9/54.3/56.2 52.4/52.1
结论:
1、原本打算用replace into 来替代 insert 和update,现在通过测试发现,效率太不行了。
所以打算在程序逻辑上来区分 insert和update。
2、char(20) 定长类型貌似对于数据库更新来说并没有优势,不定长的varchar(45)(长度还长些)的效率还高些! 是不是定长的char 在查询过程中才能体现出优势来了?
3、 10w条数据insert的时间19s 左右,update居然要40几s,是不是太长了? 各位有没有什么办法可以提高效率了?