遇到内存溢出或者显存不足有没有动态batch、gradient checkpoint这些技术可以用?

infinityxin 2026-01-12 10:16:17

我在fine-tune一个Llama 2 13B模型用于法律文档分析,4张RTX 3090,训练数据8万条、平均token长度1200,使用DeepSpeed ZeRO-2。现在batch_size=4能跑但太慢,调到8就OOM,法律文档长度又不能截太多。想问下dynamic batching和gradient checkpointing这两个技术在我这个场景下实用吗?dynamic batching在Hugging Face里怎么实现?gradient checkpointing开启后大概能节省多少显存、对训练速度影响多大、跟DeepSpeed会不会冲突?有在类似场景用过的朋友能分享下实际效果吗?

...全文
31 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
极市平台 01-12 11:07
  • 打赏
  • 举报
回复

Gradient Checkpoint 是训练技术,推理阶段用不上。 推理阶段显存不足,建议使用:模型量化(INT8/INT4)、分块推理、或者限制上下文(Context)长度。动态 Batch 主要提升吞吐量,对降低单次请求的峰值显存帮助有限。
希望对你有帮助~

6,666

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧