为何下载用于导出的Qwen2.5_7B的模型context_length只有4096

weixin_38817016 2026-01-22 19:56:47

https://qaihub-public-assets.s3.us-west-2.amazonaws.com/qai-hub-models/models/qwen2_5_7b_instruct/v2/qwen2_5_7b_instruct.zip

python -m qai_hub_models.models.qwen2_5_7b_instruct.export --chipset qualcomm-snapdragon-x-elite --skip-profiling --output-dir genie_bundle

请问通过以上命令执行之后导出的模型context_length只有4096,如果要支持128K的上下文应该如何导出。

看转换代码已经限制了:https://github.com/quic/ai-hub-models/blob/main/qai_hub_models/models/qwen2_5_7b_instruct/model.py

 

直接修改config.json 中的size无法运行,使用GenieAPIService.exe运行不了

 

...全文
28 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复

端侧部署的模型使用4k 上下文的kv-cache 优化推理加速,是固定的,4K 上下文满足一般chat应用场景。
长上下文会引起内存过量使用以及推理时长超长; 超长上下文不支持。

6,700

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧