7,156
社区成员
发帖
与我相关
我的任务
分享在高通 AI Edge Box(基于 QCS8550)上部署多模型推理任务时,如何合理分配 NPU、GPU、CPU 资源避免互相抢占?
可通过 Qualcomm AI Engine Direct 的 QNN backend 配置将不同模型指定到不同硬件核心:如主检测模型指定 HTP(NPU)、辅助分类模型指定 GPU、轻量预处理逻辑留给 CPU。使用 QNN Context 的 priority 参数设置优先级,确保关键模型优先调度。同时建议用 Snapdragon Profiler 监控各核心利用率,根据实际负载动态调整分配策略,避免单一核心过载。