Ollama无法运行qwen2.5

weixin_41481880 2025-04-28 15:00:05

按照官方说明我用3.0.1版本的SDK成功运行了DeepSeek-r1的7B和14B的版本。我在Ollama的容器里又拉取了qwen2.5的7B版本,可以通过ollama run qwen2.5:7b加载模型,但是无法交互,输入一句话就崩溃了。运行以下命令看Docker的日志:

$ sudo docker logs ollama

发现有如下报错信息:

MUSA error: unknown error
  current device: 0, in function ggml_cuda_op_mul_mat at //ml/backend/ggml/ggml/src/ggml-cuda/ggml-cuda.cu:1657
  musaGetLastError()
//ml/backend/ggml/ggml/src/ggml-cuda/ggml-cuda.cu:75: MUSA error
SIGSEGV: segmentation violation
PC=0x7f6a2ed03436 m=3 sigcode=1 addr=0x7f6a9758504c
signal arrived during cgo execution

尝试了qwen2.5:0.5b,llama3.2也是一样报错。是CUDA的兼容问题吗?

...全文
165 1 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复
用3.1.1或者4.0.1

168

社区成员

发帖
与我相关
我的任务
社区描述
摩尔线程成立于 2020 年 10 月,以全功能 GPU 为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的 AI 计算支持。 我们的目标是成为具备国际竞争力的 GPU 领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。
企业社区
社区管理员
  • 摩尔线程
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧