大家来讨论如何有效的在两个SQLServer服务器间导大数据量的问题

coolnick 2005-07-14 01:10:30
最近项目涉及到导数据,数据量非常大,有的表的记录条数达到1.5亿,
为了防止导库过程中意外中断,所以必须支持断点续传。
我是用DTS按照日期来导的,如果导库过程中意外中断,下次重新导时回滚最后
一天的数据,然后接着导。这样的问题是导库速度太慢。
现在SQLServer2005提供一个命令行工具:bcp,可以支持直接按照行来导数据,
也就是第一次可以导1~10000条数据,第二次导10001~20000条数据,以此类此,
这样可以提高速度,但是如果导库过程中原表数据有更新,可能会对后续的导库
有一定的影响。
不知道大家还有什么有效的在两个服务器间导库的方法?
...全文
103 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
coolnick 2005-07-15
  • 打赏
  • 举报
回复
怎么每一个高手来说说呀
nicepp 2005-07-14
  • 打赏
  • 举报
回复
t
ilons1 2005-07-14
  • 打赏
  • 举报
回复
如此大量的数据一定要远程传递的话,建议自己写个存储过程来倒,一次过一部份,先传到临时表,再更名。
要不就直接发MDF文件过去
zhangjingdai 2005-07-14
  • 打赏
  • 举报
回复
mark
zhangjingdai 2005-07-14
  • 打赏
  • 举报
回复
mark

27,579

社区成员

发帖
与我相关
我的任务
社区描述
MS-SQL Server 应用实例
社区管理员
  • 应用实例社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧