在8550LE上运行SNPE的时候如何提高模型的运行速度?

weixin_32297801 2024-07-05 11:13:39

在8550LE上运行SNPE的时候如何提高模型的运行速度?

...全文
1201 1 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
weixin_38498942 2024-07-08
  • 打赏
  • 举报
回复

在高通平台如果要提高模型的运行速度:
1, 使用硬件的加速, 使用GPU或者DSP的runtime来运行模型, 是模型可以更快的加速.
2, 量化你的模型, 使用INT8的计算替代Float32/Float16, 使模型可以更快的运行.
3, 增加 --userbuffer_tf8 的参数, 使用内存映射, 使GPU/DSP在推理的时候, 从CPU传到DSP/GPU的是一个指针, 不进行内存copy,提高推理的速度.

3,299

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧