一文掌握!高通 AI Engine Direct SDK 多平台模型部署与验证全流程
社区首页 (3578)





请编写您的帖子内容
社区频道(16)
显示侧栏
卡片版式
全部
AI 人工智能
WoS
XR/VR/AR/MR
IoT 物联网
Auto 汽车
AI Edge Box
生成式 AI
Gaming 游戏
博文收录
开发者中文专区
博客
活动
资讯
视频
硬件开发案例
最新发布
最新回复
标题
阅读量
内容评分
精选

19
评分
回复


一文掌握!高通 AI Engine Direct SDK 多平台模型部署与验证全流程
在基于 Arm 的 CPU 上执行模型时, 需要模型 .so(对于 RB3Gen2 目标,必须交叉编译 .so 使用 aarch64-ubuntu-gcc9.4 工具链)、后端 .so 库和输入列表设置为 运行 Inference 以生成输出。Qualcomm AI Engine Direct SDK 提供 C/C++ API,以 创建/开发可以加载已编译的 .so 模型并在其上执行它的应用程序 选定的具有加速功能的后端(CPU、GPU 或 HTP)。在基于 Arm 的 CPU 上运行 QNN 模型。
复制链接 扫一扫
分享
AI 人工智能

15
评分
回复


一文读懂!高通 AI Engine Direct SDK 从安装到模型部署全攻略
对于 AI Engine Direct (QNN) 中的量化 SDK 是来自训练数据集的 50 到 200 张图像的代表性数据集 作为校准数据集提供给 QNN 转换器。QNN SDK 提供离线工具,用于在 Qualcomm 硬件上加速转换、量化、优化和部署模型。为设备上编译模型时 执行,为此使用正确的交叉编译器工具链非常重要 架构来确保编译后的共享对象 (.so) 与 设备作系统。转换/量化步骤完成后,用于编译生成的 C++ graph 转换为共享对象 (.so),使模型能够由 应用程序执行推理。
复制链接 扫一扫
分享
AI 人工智能

16
评分
回复


高通神经处理 SDK 实战:Inception v3 模型跨平台部署与性能调优全记录
使用 AIP 运行时运行模型需要在脚本 $SNPE_ROOT/examples/Models/InceptionV3/scripts/setup_inceptionv3_snpe.py 中将 –runtime 参数设置为“aip”,以便将 HTA 特定的元数据打包到 AIP 运行时所需的 DLC 中。上面的 <input_files_dir> 映射到 $SNPE_ROOT/examples/Models/InceptionV3/data/cropped/ 之类的路径。以下是在主机和目标上分别执行的命令。
复制链接 扫一扫
分享
AI 人工智能

15
评分
回复


高通神经处理SDK Windows 优化指南:Inception v3 模型推理与 DSP 加速实战记录
使用此输入,snpe-net-run 创建了输出文件 $SNPE_ROOT/examples/Models/InceptionV3/output/Result_0/InceptionV3/Predictions/Reshape_1_0.raw。请注意,输入列表不支持带空格的路径。如果您使用 $SNPE_ROOT/examples/Models/InceptionV3/scripts/create_file_list.py 生成输入列表,使用 -r 选项将允许使用相对路径而非绝对路径,这有助于解决这个问题。
复制链接 扫一扫
分享
AI 人工智能

15
评分
回复


模型转换密码-3:从 MobilenetSSD 到 DeepLabv3 的技术突破
请注意,输入维度在转换过程中嵌入到 DLC 模型中,但在某些情况下,可以在 SNPE 对象创建/构建时通过 Snpe_SNPEBuilder_SetInputDimensions() 进行覆盖。使用高通神经处理SDK 运行 DeepLabv3 将生成一个尺寸为 513x513x1 的输出分割图,其中每个元素都是一个整数,代表一个类别(例如 0=背景等)。在高通神经处理SDK 转换之后,您应该有一个可以在高通神经处理SDK 运行时加载和运行的 mobilenet_ssd.dlc。
复制链接 扫一扫
分享
AI 人工智能

17
评分
回复


模型转换密码-2:多种转换工具实践
然后,图形准备将在运行时完成(称为在线准备),从而拒绝 DLC 中的缓存 blob,在这种情况下,初始化时间会明显增加。如果用户在缓存准备期间将此输入的大小调整为 2x3x4x5,并在未将该输入的大小调整为 2x3x4x5 的情况下尝试后续运行推理,则此原本兼容的缓存记录将因输入尺寸不匹配而被拒绝。输入数据示例,而不使用训练集中的数据。对于同一个 DSP Arch,如果为一个 SoC 准备的缓存的 VTCM 小于或等于正在运行的 SoC 的 VTCM,则该缓存可以在另一个 SoC 上运行。
复制链接 扫一扫
分享
AI 人工智能

15
评分
回复


模型转换密码-1:TensorFlow 模型转换
而 TensorFlow 将神经网络定义为节点图,并将层定义为图中的一组节点。* 在 Windows PowerShell 中使用转换工具时,请确保已激活具有所需包的虚拟环境,并通过。以下命令将 Inception v3 TensorFlow 模型转换为。工具 可将冻结的 TensorFlow 模型或图形元文件转换为等效的。考虑到这一点,为了将 TensorFlow 图正确转换为。冻结的 TensorFlow 模型(pb 文件)或。SDK 通过将各种模型转换为与框架无关的。TensorFlow 模型转换。
复制链接 扫一扫
分享
AI 人工智能

17
评分
回复


解锁高通平台Ubuntu 机器人开发(3):QIRP SDK 示例应用实战指南-下
图中显示了管道,它使用 sysfs 节点和一些系统标准命令工具收集系统信息,然后使用 ROS 消息发布这些数据。包含各种 ROS 节点来发布系统状态信息,例如 CPU 负载、内存利用率和磁盘空间。表: qrb-ros-system-monitor 管道中使用的 ROS 节点。表: qrb-ros-system-monitor 管道中使用的 ROS 主题。用例:构建并运行 qrb-ros-system-monitor。QRB-ROS-SYSTEM-MONITOR 的管道流程。QRB ROS 系统监视器。
复制链接 扫一扫
分享
IoT 物联网

17
评分
回复


解锁高通平台Ubuntu 机器人开发(2):QIRP SDK 示例应用实战指南-上
Realsense2-camera 是 realsense-ros ROS2 软件包,它是基于英特尔® RealSense TM SDK 2.0 的深度摄像头的英特尔® RealSense TM ROS 包装器。要使用这些示例,您必须拥有自己的移动机器人。rplidar-ros2 样本为 2D 激光扫描仪 RPLIDAR A1/A2/A3/S1/S2/S3 提供基本的设备处理。图中展示了 rplidar-ros2 示例的流水线,示例从 rplidar SDK 获取驱动数据,然后发布 /scan 主题。
复制链接 扫一扫
分享
IoT 物联网

17
评分
回复


解锁高通平台Ubuntu 机器人开发(1):创新工作流程揭秘
Ubuntu 机器人开发者工作流程利用了 Qualcomm® 智能机器人产品 (QIRP) SDK,其中包含一些组件,可让您使用 Ubuntu 操作系统在 Qualcomm 平台上开发机器人功能。此信息可帮助您准备好在 Qualcomm RB3 Gen 2 设备上运行 QIRP 示例应用程序所需的软件映像和依赖项。启用提供光学字符识别 (OCR) 功能的服务。它通过提供感知、规划、控制、定位、可视化等功能,构建高度可靠的自主系统。为了开发机器人系统中的应用程序,请在 RB3 Gen 2 设备和主机上安装。
复制链接 扫一扫
分享
IoT 物联网

14
评分
回复


高通神经处理SDK Windows 优化指南:Inception v3 模型推理与 DSP 加速实战记录
使用此输入,snpe-net-run 创建了输出文件 $SNPE_ROOT/examples/Models/InceptionV3/output/Result_0/InceptionV3/Predictions/Reshape_1_0.raw。请注意,输入列表不支持带空格的路径。如果您使用 $SNPE_ROOT/examples/Models/InceptionV3/scripts/create_file_list.py 生成输入列表,使用 -r 选项将允许使用相对路径而非绝对路径,这有助于解决这个问题。
复制链接 扫一扫
分享
WoS

25
评分
回复


智能IoT未来与边缘生态共建 | 2025 高通边缘智能创新应用大赛第六场公开课来袭!
5月29日(周四)晚8点,2025高通边缘智能创新应用大赛第六场线上公开课即将开启!本次课程以“探索智能IoT未来,共创边缘智能生态”为主题,特邀移远通信系统工程师胡冬虎担任讲师,聚焦边缘智能生态构建与高通跃龙™ 平台赋能.。
复制链接 扫一扫
分享
AI Edge Box

22
评分
1


在 AI 项目中,如何使用 Jupyter Notebook 或其他类似的工具进行代码开发、调试和文档编写。
在 AI 项目中,如何使用 Jupyter Notebook 或其他类似的工具进行代码开发、调试和文档编写。
复制链接 扫一扫
分享
AI 人工智能

26
评分
1


基于高通平台开发汽车智能座舱系统的流程是怎样的,从芯片选型到系统量产
基于高通平台开发汽车智能座舱系统的流程是怎样的,从芯片选型到系统量产
复制链接 扫一扫
分享
Auto 汽车

27
评分
1


如何优化高通平台上的内存使用?
如何优化高通平台上的内存使用?
复制链接 扫一扫
分享
Auto 汽车

40
评分
回复


聚焦开放智能,抢占技术高地 | 2025 高通边缘智能创新应用大赛第五场公开课来袭!
5月27日晚8点,2025高通边缘智能创新应用大赛将开启初赛阶段的第五场专题公开课——由美格软件研究院院长李书杰领衔,深入解析高通平台的底层架构与参赛设备的实战技巧,为大家带来前沿技术洞见与实用工具支持,助力参赛者加速创新应用落地。
复制链接 扫一扫
分享
AI Edge Box

54
评分
2


Whisper模型QNN推理安卓实现
按照官方开源实现了https://github.com/quic/qidk/tree/master/Solutions/NLPSolution3-AutomaticSpeechRecognition-Whisper 测试高通whisper模型snpe
复制链接 扫一扫
分享
AI 人工智能

70
评分
回复


在高通跃龙™ QCS8550平台和dify搭建本地知识库
将板卡用usb数据线连接到PC端,通过命令行界面adb调试查看本机IP (例:192.168.100.100)可以选择使用网络上免费额度的模型(比如火山),也可本地开源模型(ollama),这里以火山的免费模型为例。若使用父子分段、索引方式选择高质量,则需要调用embedding模型,同时也有更多选择。若选择通用、经济方式,则不调用embedding模型,只用本地环境即可完成。任选一个目录,如/home,下载配置文件。添加一个应用,比如一个聊天机器人。选择添加知识库,并上传文件。
复制链接 扫一扫
分享
AI 人工智能

64
评分
回复


快速在搭载骁龙移动平台的手机&平板上本地部署大模型DeepSeek
打开AidLux点击桌面的Cloud_ip应用(云朵形状icon),查看ip地址,并且在浏览器中输入该ip地址。说明:本教程使用的设备是搭载了第二代骁龙8移动平台的手机,部署的模型为deepseek-r1:7b。安装完毕可以查看ollama版本进行验证,出现版本号之后就可以使用ollama。软件,安装后注册使用避免闪退,如果想常驻后台可以在社区搜索相关文章。:可根据手机/平板配置,自行选择下载3b/7b等参数模型。下载ollama,默认sudo密码aidlux;内存:大于16G(方便运行更大参数的大模型)
复制链接 扫一扫
分享
AI 人工智能

62
评分
回复


快速在高通跃龙™ QCS6490平台上部署运行各类AI模型
硬件准备:搭载AidLux的QCS6490设备模型准备:在浏览器上访问端侧AI门户找到模型广场在页面侧栏可看到许多筛选标签,选择芯片平台选项下的 Qualcomm QCS6490筛选后可任意选择当前符合条件的模型,这里选用第一个模型(AlexNet-图像分类)作为演示示例确认设备信息后,点击右侧下载模型文件和推理代码包(注:下载模型需先注册并登录 AidLux 开发者平台账号)点击后开始下载。
复制链接 扫一扫
分享
AI 人工智能
为您搜索到以下结果:
2,836
社区成员
5,741
社区内容





高通开发者论坛
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。
高通开发者专区主页:https://qualcomm.csdn.net/
复制链接 扫一扫

确定
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。
高通开发者专区主页:https://qualcomm.csdn.net/ 人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
加入社区
获取链接或二维码
- 近7日
- 近30日
- 至今
加载中
社区公告
暂无公告