2,851
社区成员




我正在尝试使用NPU在我的Android手机上运行Llama-v3-8B-Chat。将模型导出为优化的Qualcomm格式后,我如何在移动设备上使用自己的提示在本地运行它?非常感谢。
Qualcomm将发布兼容llama3的新变体,以便在设备上运行。
可以随时关注https://github.com/quic/ai-hub-models/tree/main/qai_hub_models/models/llama_v2_7b_chat_quantized/gen_ondevice_llama
在设备上运行llama2的这个帖子。
llama3也将使用类似的工作流程在设备上运行。
注意:您可以将当前的llama3与上述工作流一起使用,但配置文件会发生变化。
请继续关注,一旦我们发布了llama3流,我们将进行更新