Qualcomm AI Hub-示例(一)编译模型

chipseeker 2024-03-27 21:06:15

Qualcomm® AI Hub支持Pytorch、ONNX、AIMET、Tensorflow等主流AI框架训练的模型,本文介绍了如何使用AI Hub相关的SDK接口把这些模型编译成TensorFlow Lite和Qualcomm AI Engine Direct (QNN)。具体的基于python的编程实现参考中文文档:Qualcomm AI Hub-示例(一)编译模型-CSDN博客

除了可以用python编程实现模型的编译,我们也可以使用命令行来做模型的编译

1.命令行将onnx模型编译成tflite模型,使用的mobilenet_v2.onnx 模型下载链接:

https://qaihub-public-assets.s3.us-west-2.amazonaws.com/apidoc/mobilenet_v2.onnx

命令行: qai-hub submit-compile-job --model ./mobilenet_v2.onnx  --device "Samsung Galaxy S24"

编译结果如下:

 2.命令行将onnx模型编译成QNN android下使用的模型,使用的mobilenet_v2.onnx 模型同上。

命令行: qai-hub submit-compile-job --model ./mobilenet_v2.onnx  --device "Samsung Galaxy S24" --compile_options "--target_runtime qnn_lib_aarch64_android"
编译结果如下:

 

同时你还可以讲pytorch模型编译成tflite或者QNN格式,mobilenet_v2.pt模型下载:https://qaihub-public-assets.s3.us-west-2.amazonaws.com/apidoc/mobilenet_v2.pt

可参考以下命令

qai-hub submit-compile-job --model ./mobilenet_v2.pt --input_specs "{'image': (1, 3, 224, 224)}" --device "Samsung Galaxy S23" 

 

qai-hub submit-compile-job --model ./mobilenet_v2.pt --input_specs "{'image': (1, 3, 224, 224)}" --device "Samsung Galaxy S23" --compile_options "--target_runtime qnn_lib_aarch64_android"

这样,不用一行代码就可以实现模型的编译。

 

 

...全文
236 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

948

社区成员

发帖
与我相关
我的任务
社区描述
为开发者提供高通丰富的解决方案及全面技术下载内容。本版以AI人工智能、WoS移动笔记本、XR、IoT 物联网、Auto 汽车、生成式AI等核心板块组成,为开发者提供一个便捷及高效的学习交流平台。
人工智能物联网机器学习 企业社区 北京·东城区
社区管理员
  • Qualcomm开发
  • csdnsqst0050
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧