今天解决的一个问题分享

zheninchangjiang 2010-12-29 10:14:17
地磅称重数据,不知不觉已经有100多万数据,使用过程中报保存数据太慢
就开始简单分析,原来建的PK是簇索引,实际上PK有三类型,这个不合理,于是就将PK改成非簇索引
但是问题依然,就开始分析每一个执行的语句,问题还是索引造成的,心里也非常的纠结。
一是charindex和substring的使用,发现charindex并不会去使用索引,但是substring会使用索引
二是重复数据是否建索引的问题,内部运输量大,但也就那么20到30辆车,结果发现建了索引后,外部车辆的称重过程加快了,内部车辆称重比外部车辆要慢2秒左右,但是速度还是提高很多,这让我很是纠结。
另外就是重量的问题,10吨到20吨的范围,20公斤为一级,也就是说多数数据在500个结果内重复,纠结的是在重量上建立索引后,对于重量的选择,速度提高了不是一点,而是很多,这样将称重数据保存过程控制在2秒钟内了。
很是纠结了,重复的数据是否建立索引还是要不停的测试了。
另外就是要定期做无聊的重建索引工作了。
...全文
130 14 打赏 收藏 转发到动态 举报
写回复
用AI写文章
14 条回复
切换为时间正序
请发表友善的回复…
发表回复
Shawn 2011-01-04
  • 打赏
  • 举报
回复
收藏了
华夏小卒 2011-01-04
  • 打赏
  • 举报
回复
billpu 2011-01-04
  • 打赏
  • 举报
回复
技术贴要顶的
anlianganl 2011-01-04
  • 打赏
  • 举报
回复
谢谢分享~~
dawugui 2010-12-29
  • 打赏
  • 举报
回复
谢谢分享,顺便接个分.
billpu 2010-12-29
  • 打赏
  • 举报
回复
技术贴要顶的
-晴天 2010-12-29
  • 打赏
  • 举报
回复
???

保存数据慢与索引有关吗?

按道理,把所有索引统统去掉,保存数据的速度最快!
ohfox 2010-12-29
  • 打赏
  • 举报
回复
谢谢分享
飘零一叶 2010-12-29
  • 打赏
  • 举报
回复
zheninchangjiang 2010-12-29
  • 打赏
  • 举报
回复
[Quote=引用 1 楼 wxf163 的回复:]
多久做一次重建?每天数据量多大?
[/Quote]
不出问题不重建,我也想知道,数据库服务器的负载还是挺高的,建一次索引就要挺长时间的
天-笑 2010-12-29
  • 打赏
  • 举报
回复
100 多万条数据不算多
王向飞 2010-12-29
  • 打赏
  • 举报
回复
多久做一次重建?每天数据量多大?

27,579

社区成员

发帖
与我相关
我的任务
社区描述
MS-SQL Server 应用实例
社区管理员
  • 应用实例社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧