4,509
社区成员




高通如何通过其AI Hub和硬件优化,推动生成式AI在终端侧的部署与性能提升?
高通在推动终端侧生成式AI的发展中,主要通过 高通AI Hub 和 定制化硬件架构 两大核心策略,显著提升模型推理效率,并降低开发者部署门槛。
1.高通AI Hub:预优化模型库与开发者工具
a.超过75个主流AI模型(如Stable Diffusion、Baichuan-7B、Whisper等)经过高通AI引擎优化,可在骁龙平台上直接部署,推理速度提升 4倍15。
b.自动模型转换:支持从PyTorch、TensorFlow等框架到高通QNN(Qualcomm Neural Network)格式的转换,减少开发者的适配工作量1。
c.兼容OpenAI API:开发者可无缝迁移云端AI应用到终端侧,保持一致的调用方式,同时享受本地化处理的低延迟和隐私优势5。
2.硬件加速:骁龙平台的异构计算架构
a.NPU+CPU+GPU协同计算:如骁龙X Elite的45 TOPS NPU,可高效运行130亿参数的大模型,在PC端实现 7秒生成Stable Diffusion图像,比x86竞品快3倍5。
b.多模态支持:在Android手机上运行 70亿参数的LLaVA(大语言视觉助理),支持文本+图像输入,并实时生成多轮对话,增强隐私和响应速度17。
c.LoRA微调技术:允许在终端侧高效定制Stable Diffusion等模型,减少可训练参数,适用于个性化AI助手、艺术风格生成等场景1。
3.跨终端生态覆盖
a.智能手机(如小米14 Pro的AI图像扩充)、PC(骁龙X Elite的AI加速)、汽车(数字底盘AI座舱)、物联网(Humane AI Pin)等,均受益于高通优化的终端侧AI能力57。
综上,高通通过 AI Hub的软件优化 和 骁龙芯片的硬件加速,使生成式AI在终端侧实现高效、低延迟、隐私安全的部署,推动AI从云端向边缘计算迁移。