一文掌握!高通 AI Engine Direct SDK 多平台模型部署与验证全流程
在基于 Arm 的 CPU 上执行模型时, 需要模型 .so(对于 RB3Gen2 目标,必须交叉编译 .so 使用 aarch64-ubuntu-gcc9.4 工具链)、后端 .so 库和输入列表设置为 运行 Inference 以生成输出。Qualcomm AI Engine Direct SDK 提供 C/C++ API,以 创建/开发可以加载已编译的 .so 模型并在其上执行它的应用程序 选定的具有加速功能的后端(CPU、GPU 或 HTP)。在基于 Arm 的 CPU 上运行 QNN 模型。