高精度的计时器延迟问题

afeng@2008 2010-12-01 04:45:30
我使用windows API写的计时器,使用一个单独的线程计时,
两个变量 开始时的精振次数 ,结束时的精振次数

启动后循环不断刷新结束的精振次数,检测到达到指定的时间间的时候,将开始时的精振次数值设置为结束时的精振次数,并输出经过的时间,然后再继续不断刷新检测
测试输出的结果有时正常大概十个之后,就会有一个很大的延迟的值,比指定的间隔大十几倍

期待高手帮忙解释一下什么原因,我猜大概是由于进程切换时间造成的,我的计时器精度要求在 100微秒以内

备注语言使用的是C#
...全文
166 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
afeng@2008 2011-07-20
  • 打赏
  • 举报
回复
感谢shellgo的建议,同时感谢楼上各位的回帖
shellgo 2010-12-02
  • 打赏
  • 举报
回复
在.net cf中,微秒比较难,一般用timer或者多媒体timer,但精度基本都在ms,
做什么?真的需要微秒吗?
在驱动中,用gpio模拟一些时序,可能需要微秒,用cpu的定时器,要做到准确的微秒也不是非常容易,在wince中,【我一般都是用简单的循环来的倒延时,】
91program 2010-12-01
  • 打赏
  • 举报
回复
这样的实现,能高精度吗?

很是怀疑!
daydayupfromnowon 2010-12-01
  • 打赏
  • 举报
回复
看一下以前帖子的讨论,很多,呵呵
内容概要|本宝典系统梳理了初级人工智能工程师面试的全部核心模块,涵盖六大知识领域:数学基础(梯度下降、线性代数、概率论)、编程与工具(Python、NumPy、PyTorch、HuggingFace)、机器学习(监督/无监督/强化学习、逻辑回归、XGBoost、特征工程、交叉验证)、深度学习与大模型热点(Transformer、ROPE、GQA、LoRA/QLoRA、RAG、解码策略、多模态、RLHF/DPO、Agent、推理优化)、项目经验(STAR法则、数据清洗、不平衡处理、模型选型、性能优化、大厂高频追问)以及综合素养与职业规划(职业动机、学习能力、团队协作、3-5年规划、行业趋势)。全文配有大量可直接运行的代码示例、详细注释及面试话术,总计超过6万字,覆盖从理论到实践、从算法到工程、从个人能力到职业发展的完整面试准备链路。|适用人群|准备求职大厂(字节、阿里、腾讯、百度等)初级人工智能工程师岗位的应届毕业生、转行AI的开发者、1-3年经验希望系统提升面试能力的在职工程师,以及需要带新人的技术面试官或培训导师。|使用场景|①面试前系统复习:按模块查漏补缺,快速掌握高频考点与答题逻辑;②模拟面试训练:利用项目深挖问题和大厂高频追问进行自测或互测;③项目复盘优化:参照项目经验模块优化个人简历中的项目描述,提升STAR表达质量;④日常学习参考:将代码示例直接运行调试,深入理解算法原理与工程实现;⑤内部培训材料:作为团队新人培养或面试题库建设的参考资料。|目标|帮助读者在最短时间内构建系统化的AI知识体系,掌握大厂面试的答题框架与追问应对技巧,具备独立讲解项目、优化模型、解决实际问题的能力,最终顺利通过初级人工智能工程师的技术面试与综合素质评估,获得理想的职业起点。同时,通过持续的学习与反思,培养工程师的成长思维与行业洞察力,为未来向中级、高级岗位进阶奠定坚实基础。

19,524

社区成员

发帖
与我相关
我的任务
社区描述
硬件/嵌入开发 嵌入开发(WinCE)
社区管理员
  • 嵌入开发(WinCE)社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧