在 Snapdragon AI PC 上做本地 RAG(检索增强生成),向量检索和 LLM 推理同时运行时性能下降严重,如何优化资源分配?

码莎拉蒂tuo 2026-03-19 15:43:14

在 Snapdragon AI PC 上做本地 RAG(检索增强生成),向量检索和 LLM 推理同时运行时性能下降严重,如何优化资源分配?

...全文
37 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
weixin_38498942 03-19 16:03
  • 打赏
  • 举报
回复

建议将向量检索和 LLM 推理分配到不同计算单元:
1)LLM 推理放在 NPU(HTP backend),这是最耗算力的部分;
2)向量检索(如 FAISS/Annoy)使用 CPU 多线程即可满足延迟要求;
3)Embedding 模型可放在 GPU 上运行,与 NPU 并行;
4)设计异步流水线:先完成检索获取上下文,再拼接 prompt 送入 LLM,避免两者同时争抢内存带宽;
5)控制向量库大小,优先使用量化向量(如 PQ 或二值化)减少内存占用。

7,156

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧