关于GetTickCount的疑惑
我用GetTickCount计时采集数据,出现如下问题
比如采集10分钟,从12:20:00开始,取此时的GetTickCount的值保存在变量x中,计时器间隔设为10或者20,每次触发计时器事件时取GetTickCount的值保存在变量y中,做如下判断
if y-x<=10*60*1000 then
继续采集
else
采集结束
end if
有时候采集得很正常,正好在12:30:00结束,但是有时候很奇怪,在12:28:48就结束了,y-x的值也大于10*60*1000 ,每次的异常时间误差几乎都是这么多,72秒左右吧,郁闷死我了,GetTickCount应该是很精确的啊,为什么会出现这种情况呢?