高通如何通过其AI Hub和硬件优化,推动生成式AI在终端侧的部署与性能提升?

jio波纹疾走 2025-07-31 11:04:38

高通如何通过其AI Hub和硬件优化,推动生成式AI在终端侧的部署与性能提升?

...全文
16 1 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
weixin_38498942 18小时前
  • 打赏
  • 举报
回复

高通在推动终端侧生成式AI的发展中,主要通过 高通AI Hub 和 定制化硬件架构 两大核心策略,显著提升模型推理效率,并降低开发者部署门槛。
1.高通AI Hub:预优化模型库与开发者工具
a.超过75个主流AI模型(如Stable Diffusion、Baichuan-7B、Whisper等)经过高通AI引擎优化,可在骁龙平台上直接部署,推理速度提升 4倍15。
b.自动模型转换:支持从PyTorch、TensorFlow等框架到高通QNN(Qualcomm Neural Network)格式的转换,减少开发者的适配工作量1。
c.兼容OpenAI API:开发者可无缝迁移云端AI应用到终端侧,保持一致的调用方式,同时享受本地化处理的低延迟和隐私优势5。
2.硬件加速:骁龙平台的异构计算架构
a.NPU+CPU+GPU协同计算:如骁龙X Elite的45 TOPS NPU,可高效运行130亿参数的大模型,在PC端实现 7秒生成Stable Diffusion图像,比x86竞品快3倍5。

b.多模态支持:在Android手机上运行 70亿参数的LLaVA(大语言视觉助理),支持文本+图像输入,并实时生成多轮对话,增强隐私和响应速度17。
c.LoRA微调技术:允许在终端侧高效定制Stable Diffusion等模型,减少可训练参数,适用于个性化AI助手、艺术风格生成等场景1。

3.跨终端生态覆盖
a.智能手机(如小米14 Pro的AI图像扩充)、PC(骁龙X Elite的AI加速)、汽车(数字底盘AI座舱)、物联网(Humane AI Pin)等,均受益于高通优化的终端侧AI能力57。

综上,高通通过 AI Hub的软件优化 和 骁龙芯片的硬件加速,使生成式AI在终端侧实现高效、低延迟、隐私安全的部署,推动AI从云端向边缘计算迁移。

4,509

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧