关于onnx使用GPU作为backend

礼进非 2026-02-27 21:15:42

官网教程与ort_setup.ps1脚本都让人有点混乱:
首先是官网的:

为什么GPU的backend使用了QNNExecutionProvider呢?
其次: 

按照setup脚本为什么GPU EP使用和CPU EP一样的环境,这样我安装了onnxruntime 1.22.0,填写GPUExecutionProvider就会报错。
按照脚本中所说的onnxruntime版本尝试了所有环境情况也都报错。 

...全文
104 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复

对于你所说的官网和ort_setup.ps1来源是在哪里,请注明链接

  • 举报
回复
@礼进非 1.QNNExecutionProvider 负责接入 QNN,具体跑 CPU/HTP/GPU 由 backend_path 决定 2.GPUExecutionProvider 本身不是 ORT Python 的有效 provider 名称;DML 应写 DmlExecutionProvider(且包需 onnxruntime-directml),QNN 路径应写 QNNExecutionProvider(且包需 onnxruntime-qnn)

7,150

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧