7,148
社区成员
发帖
与我相关
我的任务
分享在 Qualcomm Neural Processing SDK 里,如何把 ONNX 模型量化成 INT8,具体要调哪些接口?
使用 Neural Processing SDK 的 DlcFromOnnx 工具将 ONNX 转为 DLC,再通过 snpe-dlc-quantize 做量化。量化时需提供代表数据集或校准图片,设置 --enable_htp 可启用 Hexagon DSP 的 INT8 加速,再用 snpe-net-run 或 C++/Java API 加载并推理。