求教,SQL超时已过期,用查询分析器执行时间很长很长。

Heyongfeng 2004-01-09 02:09:48
我用的是DELPHI+ADO+SQL7,我在程序里执行一个查询“select * from fwml_view”,表记录只有几百条而已,但它说“超时已过期”,但过一会儿又会好的。
当出现这个问题的时候我在查询分析器里执行该语句,这个时间老长老长,要过几分或十几分钟。
上次另外一个表也是这个情况,我把数据库换了个位置,就好了,现在又是一个表是这样了。
表有索引,一个聚簇,一个非聚簇,没有触发器。
程序里相同的做法有好几个模块,其它的都很好。
读写有点多的,但读写更频繁,记录还要多的有的是,为什么单单是这个表有问题呢?
请大家帮忙想想办法。在线等……
...全文
639 21 打赏 收藏 转发到动态 举报
写回复
用AI写文章
21 条回复
切换为时间正序
请发表友善的回复…
发表回复
windywalk 2004-01-13
  • 打赏
  • 举报
回复
你试试用事件探查器跟踪数据库看看能不能找出原因。
zjsxhyf 2004-01-13
  • 打赏
  • 举报
回复
在分析器里查一下
sp_who
sp_who2
Heyongfeng 2004-01-13
  • 打赏
  • 举报
回复
我测试了好长时间了,估计是事务的问题。
问题是我现在怎样才能查出是哪些代码或模块引起的,请各位帮忙。
w_rose 2004-01-11
  • 打赏
  • 举报
回复
ado记录集的open参数尽量使用“乐观”锁,批处理方式更新服务器。

客户端编程,一个小小的不经意,贪图方便,就会给后台带来沉重的性能损失。

不过这不是这个板块的主题。
w_rose 2004-01-11
  • 打赏
  • 举报
回复
如果可能,使用这些网格控件的时候不要把它与服务器连接起来。你自己另外制作数据库读写的过程,一定要保证只有瞬间占用服务器资源。
w_rose 2004-01-11
  • 打赏
  • 举报
回复
客户端锁。看看你是不是使用了很烂的客户端工具,比如一些很漂亮并且运行很快的“网格”控件,它之所以快速就是因为它“霸道”地占用服务器资源和锁。
zhaoloudy 2004-01-10
  • 打赏
  • 举报
回复
Delphi中可以令连接连接为READ UNCOMMITTED事务锁定读数据,该事物隔离是也不接受排它锁的,或者用‘select * from fwml_view(nolock)'也可以。你试试。
Heyongfeng 2004-01-10
  • 打赏
  • 举报
回复
各位帮忙啊……
IWannerKnow 2004-01-10
  • 打赏
  • 举报
回复
这种问题你太早做动作了,先分析再说

你用QA而不是程序,执行,也是这样吗?
如果能遇到相同的情况,你使用了 PERFORMANCE 和 PROFILER 监视过吗


有其他的程序在运行嘛,运行的是什么, 什么语句, 锁的情况如何?? 你的语句传过来了,被什么阻塞??

如果只是一个表的情况,那么你的查询是什么,是完全没有结果吗
如果有,执行计划是什么??
既然其他模块也读写频繁, 也可以从这里找原因。 事务级别,锁,等等。


如果QA都发生问题,先从服务器端查,在倒你的程序。
shizi_mhy 2004-01-10
  • 打赏
  • 举报
回复
mark
zjcxc 元老 2004-01-09
  • 打赏
  • 举报
回复
你不是说: 我把备份恢复到另外一台机器.....

就在你做检查的那台机测试一下速度啊.
Heyongfeng 2004-01-09
  • 打赏
  • 举报
回复
没换过其它的服务器,教教小弟应该从那方面着手分析
zjcxc 元老 2004-01-09
  • 打赏
  • 举报
回复
那在另一台机器上查询的速度怎么样?
Heyongfeng 2004-01-09
  • 打赏
  • 举报
回复
那个服务器不能停,我把备份恢复到另外一台机器,做了检查:CHECKDB found 0 allocation errors and 0 consistency errors in database 'exc'.
zjcxc 元老 2004-01-09
  • 打赏
  • 举报
回复
--查询语句中执行下面的语句的结果是什么?

DBCC CHECKDB( '你的数据库名',REPAIR_REBUILD)
Heyongfeng 2004-01-09
  • 打赏
  • 举报
回复
to:pengdali(大力 V3.0), 查询超时设为0不能根本解决问题,因为在查询分析器里执行该表也是很长时间,但其它表一切正常,而且该情况也是有时会出现。
to:zjcxc(邹建),select * from fwml_view,这个几百条的表在查询分析器里也这么慢,我也有索引
zjcxc 元老 2004-01-09
  • 打赏
  • 举报
回复
另外,既然以前出过,换过位置就好了,那你检查一下你的数据库有没有问题


--在查询分析器中执行下面的语句来检查并修复数据库,注意修改数据库名:

DBCC CHECKDB( '你的数据库名',REPAIR_REBUILD)
sunshareforever 2004-01-09
  • 打赏
  • 举报
回复
1.查询超时设为0
2.数据库锁
sp_who
sp_who2
3.kill

zjcxc 元老 2004-01-09
  • 打赏
  • 举报
回复
优化你的数据库

如何让你的SQL运行得更快
---- 人们在使用SQL时往往会陷入一个误区,即太关注于所得的结果是否正确,而忽略
了不同的实现方法之间可能存在的性能差异,这种性能差异在大型的或是复杂的数据库
环境中(如联机事务处理OLTP或决策支持系统DSS)中表现得尤为明显。笔者在工作实践
中发现,不良的SQL往往来自于不恰当的索引设计、不充份的连接条件和不可优化的whe
re子句。在对它们进行适当的优化后,其运行速度有了明显地提高!下面我将从这三个
方面分别进行总结:
---- 为了更直观地说明问题,所有实例中的SQL运行时间均经过测试,不超过1秒的均
表示为(< 1秒)。
---- 测试环境--
---- 主机:HP LH II
---- 主频:330MHZ
---- 内存:128兆
---- 操作系统:Operserver5.0.4
----数据库:Sybase11.0.3
一、不合理的索引设计
----例:表record有620000行,试看在不同的索引下,下面几个 SQL的运行情况:
---- 1.在date上建有一非个群集索引
select count(*) from record where date >
'19991201' and date < '19991214'and amount >
2000 (25秒)
select date,sum(amount) from record group by date
(55秒)
select count(*) from record where date >
'19990901' and place in ('BJ','SH') (27秒)
---- 分析:
----date上有大量的重复值,在非群集索引下,数据在物理上随机存放在数据页上,在
范围查找时,必须执行一次表扫描才能找到这一范围内的全部行。
---- 2.在date上的一个群集索引
select count(*) from record where date >
'19991201' and date < '19991214' and amount >
2000 (14秒)
select date,sum(amount) from record group by date
(28秒)
select count(*) from record where date >
'19990901' and place in ('BJ','SH')(14秒)
---- 分析:
---- 在群集索引下,数据在物理上按顺序在数据页上,重复值也排列在一起,因而在范
围查找时,可以先找到这个范围的起末点,且只在这个范围内扫描数据页,避免了大范
围扫描,提高了查询速度。
---- 3.在place,date,amount上的组合索引
select count(*) from record where date >
'19991201' and date < '19991214' and amount >
2000 (26秒)
select date,sum(amount) from record group by date
(27秒)
select count(*) from record where date >
'19990901' and place in ('BJ', 'SH')(< 1秒)
---- 分析:
---- 这是一个不很合理的组合索引,因为它的前导列是place,第一和第二条SQL没有引
用place,因此也没有利用上索引;第三个SQL使用了place,且引用的所有列都包含在组
合索引中,形成了索引覆盖,所以它的速度是非常快的。
---- 4.在date,place,amount上的组合索引
select count(*) from record where date >
'19991201' and date < '19991214' and amount >
2000(< 1秒)
select date,sum(amount) from record group by date
(11秒)
select count(*) from record where date >
'19990901' and place in ('BJ','SH')(< 1秒)
---- 分析:
---- 这是一个合理的组合索引。它将date作为前导列,使每个SQL都可以利用索引,并
且在第一和第三个SQL中形成了索引覆盖,因而性能达到了最优。
---- 5.总结:
---- 缺省情况下建立的索引是非群集索引,但有时它并不是最佳的;合理的索引设计要
建立在对各种查询的分析和预测上。一般来说:
---- ①.有大量重复值、且经常有范围查询
(between, >,< ,>=,< =)和order by
、group by发生的列,可考虑建立群集索引;
---- ②.经常同时存取多列,且每列都含有重复值可考虑建立组合索引;
---- ③.组合索引要尽量使关键查询形成索引覆盖,其前导列一定是使用最频繁的列。

二、不充份的连接条件:
---- 例:表card有7896行,在card_no上有一个非聚集索引,表account有191122行,在
account_no上有一个非聚集索引,试看在不同的表连接条件下,两个SQL的执行情况:

select sum(a.amount) from account a,
card b where a.card_no = b.card_no(20秒)
---- 将SQL改为:
select sum(a.amount) from account a,
card b where a.card_no = b.card_no and a.
account_no=b.account_no(< 1秒)
---- 分析:
---- 在第一个连接条件下,最佳查询方案是将account作外层表,card作内层表,利用
card上的索引,其I/O次数可由以下公式估算为:
---- 外层表account上的22541页+(外层表account的191122行*内层表card上对应外层
表第一行所要查找的3页)=595907次I/O
---- 在第二个连接条件下,最佳查询方案是将card作外层表,account作内层表,利用
account上的索引,其I/O次数可由以下公式估算为:
---- 外层表card上的1944页+(外层表card的7896行*内层表account上对应外层表每一
行所要查找的4页)= 33528次I/O
---- 可见,只有充份的连接条件,真正的最佳方案才会被执行。
---- 总结:
---- 1.多表操作在被实际执行前,查询优化器会根据连接条件,列出几组可能的连接方
案并从中找出系统开销最小的最佳方案。连接条件要充份考虑带有索引的表、行数多的
表;内外表的选择可由公式:外层表中的匹配行数*内层表中每一次查找的次数确定,乘
积最小为最佳方案。
---- 2.查看执行方案的方法-- 用set showplanon,打开showplan选项,就可以看到连
接顺序、使用何种索引的信息;想看更详细的信息,需用sa角色执行dbcc(3604,310,30
2)。
三、不可优化的where子句
---- 1.例:下列SQL条件语句中的列都建有恰当的索引,但执行速度却非常慢:
select * from record where
substring(card_no,1,4)='5378'(13秒)
select * from record where
amount/30< 1000(11秒)
select * from record where
convert(char(10),date,112)='19991201'(10秒)
---- 分析:
---- where子句中对列的任何操作结果都是在SQL运行时逐列计算得到的,因此它不得不
进行表搜索,而没有使用该列上面的索引;如果这些结果在查询编译时就能得到,那么
就可以被SQL优化器优化,使用索引,避免表搜索,因此将SQL重写成下面这样:
select * from record where card_no like
'5378%'(< 1秒)
select * from record where amount
< 1000*30(< 1秒)
select * from record where date= '1999/12/01'
(< 1秒)
---- 你会发现SQL明显快起来!
---- 2.例:表stuff有200000行,id_no上有非群集索引,请看下面这个SQL:
select count(*) from stuff where id_no in('0','1')
(23秒)
---- 分析:
---- where条件中的'in'在逻辑上相当于'or',所以语法分析器会将in ('0','1')转化
为id_no ='0' or id_no='1'来执行。我们期望它会根据每个or子句分别查找,再将结果
相加,这样可以利用id_no上的索引;但实际上(根据showplan),它却采用了"OR策略"
,即先取出满足每个or子句的行,存入临时数据库的工作表中,再建立唯一索引以去掉
重复行,最后从这个临时表中计算结果。因此,实际过程没有利用id_no上索引,并且完
成时间还要受tempdb数据库性能的影响。
---- 实践证明,表的行数越多,工作表的性能就越差,当stuff有620000行时,执行时
间竟达到220秒!还不如将or子句分开:
select count(*) from stuff where id_no='0'
select count(*) from stuff where id_no='1'
---- 得到两个结果,再作一次加法合算。因为每句都使用了索引,执行时间只有3秒,
在620000行下,时间也只有4秒。或者,用更好的方法,写一个简单的存储过程:
create proc count_stuff as
declare @a int
declare @b int
declare @c int
declare @d char(10)
begin
select @a=count(*) from stuff where id_no='0'
select @b=count(*) from stuff where id_no='1'
end
select @c=@a+@b
select @d=convert(char(10),@c)
print @d
---- 直接算出结果,执行时间同上面一样快!
---- 总结:
---- 可见,所谓优化即where子句利用了索引,不可优化即发生了表扫描或额外开销。

---- 1.任何对列的操作都将导致表扫描,它包括数据库函数、计算表达式等等,查询时
要尽可能将操作移至等号右边。
---- 2.in、or子句常会使用工作表,使索引失效;如果不产生大量重复值,可以考虑把
子句拆开;拆开的子句中应该包含索引。
---- 3.要善于使用存储过程,它使SQL变得更加灵活和高效。
---- 从以上这些例子可以看出,SQL优化的实质就是在结果正确的前提下,用优化器可
以识别的语句,充份利用索引,减少表扫描的I/O次数,尽量避免表搜索的发生。其实S
QL的性能优化是一个复杂的过程,上述这些只是在应用层次的一种体现,深入研究还会
涉及数据库层的资源配置、网络层的流量控制以及操作系统层的总体设计。
pengdali 2004-01-09
  • 打赏
  • 举报
回复
SET TRANSACTION ISOLATION LEVEL REPEATABLE READ

锁定查询中使用的所有数据以防止其他用户更新数据,但是其他用户可以将新的幻像行插入数据集,且幻像行包括在当前事务的后续读取中。因为并发低于默认隔离级别,所以应只在必要时才使用该选项。
加载更多回复(1)

34,589

社区成员

发帖
与我相关
我的任务
社区描述
MS-SQL Server相关内容讨论专区
社区管理员
  • 基础类社区
  • 二月十六
  • 卖水果的net
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧