sql同步数据性能疑问

程爱动漫 2018-04-22 10:14:04
我现在要批量更新数据,存在的话就更新update,不存在的话就插入insert
批量更新100-1000条,主表十万数据
我想到的是
第一就是,逐条写update,insert
第二就是,把数据存到临时表里面,然后update from ,insert not exists
那一种比较好呢,如果主表数据更多呢
...全文
503 7 打赏 收藏 转发到动态 举报
写回复
用AI写文章
7 条回复
切换为时间正序
请发表友善的回复…
发表回复
繁花尽流年 2018-04-23
  • 打赏
  • 举报
回复
我也建议merge,2000太老了不考虑升级一下嘛? update insert 肯定是批量操作好的多。10W条没啥问题的。
shoppo0505 2018-04-23
  • 打赏
  • 举报
回复
update 和 insert 实行分批操作,操作的条件在where中限制
二月十六 2018-04-22
  • 打赏
  • 举报
回复
用第二种方式,第一种逐条写太麻烦了,不管是一次性同步还是后期一直同步处理,第一种人工成本太高了。10万条数据对一般数据服务器来说都不算大。先实践测试,真正遇到性能瓶颈时在处理。
程爱动漫 2018-04-22
  • 打赏
  • 举报
回复
主表10w起步,上不封顶
程爱动漫 2018-04-22
  • 打赏
  • 举报
回复
数据是程序生成的
程爱动漫 2018-04-22
  • 打赏
  • 举报
回复
引用 3 楼 xiaoxiangqing 的回复:
用merge吧,简单一些
mssql 2000
xiaoxiangqing 2018-04-22
  • 打赏
  • 举报
回复
用merge吧,简单一些

22,210

社区成员

发帖
与我相关
我的任务
社区描述
MS-SQL Server 疑难问题
社区管理员
  • 疑难问题社区
  • 尘觉
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧