部署Llama-3.2-1B推理的时候, 使用QNN的后端时, 运行单击“加载模型”时app应用程序崩溃.

起名困难症患者1 2025-01-17 11:15:14

部署Llama-3.2-1B推理的时候, 使用QNN的后端时, 运行单击“加载模型”时app应用程序崩溃.

我正在按照 [LlamaDemo 教程]在我的 OnePlus 12 手机(24GB RAM,1TB 存储空间)
上部署 Llama-3.2-1B 模型。但是,我遇到了如图问题:

1). 问题描述
当我单击应用程序中的“加载模型”按钮时,它立即崩溃,没有任何可见的错误消息。
2). 重现步骤
从 [Hugging Face](https://huggingface.co/meta-llama/Llama-3.2-1B/tree/main) 下载原始模型。
使用教程中描述的以下命令转换模型:
python -m examples.models.llama.export_llama  --checkpoint "${MODEL_DIR}/consolidated.00.pth"  -p "${MODEL_DIR}/params.json"  -kv  --disable_dynamic_shape  --qnn  --pt2e_quantize qnn_16a4w  -d fp32  --metadata '{"get_bos_id":128000, "get_eos_ids" [128009, 128001]}'  --output_name="test.pte"
然后我完全按照教程进行操作

 

...全文
696 1 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复

这个错误主要是因为Android SDK版本问题, 如 https://github.com/pytorch/executorch/blob/main/examples/demo-apps/android/LlamaDemo/docs/delegates/qualcomm_README.md 所述。请使用 NDK 版本 26.3.11579264 再试一次。

3,770

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧