【BUG】LLM|DeepSeek-R1 本地部署回复不全容易中断Error: an error was encountered while running the model: unexpected

shandianchengzi
全栈领域新星创作者
博客专家认证
2025-03-03 20:09:16

问题收录:《Error: an error was encountered while running the model: unexpected EOF (8x H100, deepseek-r1:671b

我最终解决了的办法:
创建新的modefile,(把下面那个代码片段的模型量级改成自己的,比如我只是修复14b,就把671b改成14b)

```
cat >Modelfile <<EOF
FROM deepseek-r1:671b 
PARAMETER num_ctx 24576
PARAMETER num_predict 8192
EOF
ollama create deepseek-r1:671b-fixed -f Modelfile
```

运行

```
ollama run deepseek-r1:671b-fixed
```

...全文
323 回复 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

4

社区成员

发帖
与我相关
我的任务
社区描述
在这里,记录我认为写得有最帮助的推文~~~ 同类型的推文只选我看过的最棒的!欢迎大家用自己更棒的推文替换它!
物联网系统安全python 个人社区 湖北省·武汉市
社区管理员
  • shandianchengzi
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧