6,429
社区成员
发帖
与我相关
我的任务
分享目前端侧运行大语言模型 (LLM) 是否靠谱?例如 7B 模型在最新骁龙平台上的 token 速度、功耗大概是什么水平?
端侧运行7B LLM已靠谱(INT4量化+骁龙8 Gen2+ NPU),骁龙8 Elite上解码速度约17.9 tokens/s,8 Gen3约10-12 tokens/s,首token延迟1-1.5s;功耗多在3-6W(NPU为主),无CPU回退时更低。判断端侧可用看三点:支持骁龙8 Gen2+、INT4/FP16量化、用QAIRT工具查无算子回退,同时核对延迟/功耗/内存基线。