在 AI 100 上运行 Llama3 时 输出token的速度真的很慢, 请问是什么问题啊?

家有柯基 2024-12-20 10:51:31

我在 AI 100 上运行 Llama3 8b 模型,但token输出的速度非常慢,解码时大约 6 个令牌/秒。你能帮我找出可能的原因吗?谢谢!我的代码版本是 repo 的 release/1.15

...全文
807 1 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
weixin_38498942 2024-12-26
  • 打赏
  • 举报
回复

感谢您提供详细信息;我们能够重现性能结果。
为了提高性能,您可以使用 --mxfp6 标志。此标志将恒定 MatMul 权重压缩为 MXFP6 E2M3,从而以略微增加计算量为代价减少内存流量。
在最新版本/1.16 中,我们引入了另一个性能优化标志 --mxint8。此标志将 KV 缓存压缩为 mxint8 精度,同时减少内存流量,但计算要求略有增加。
关于您提到的输出问题,我们没有遇到输出中的连续点。输出按预期显示。请确保您使用的是正确版本的 transformers 和 tokenizers 包。

img

2,851

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧