3,773
社区成员




WoS上支持运行 DeepSeek R1:8b模型吗?有相关指导提供吗?
你可以参考这个文档,目前在NPU上可以跑DeepSeek-R1-Distill-Qwen-1.5B /DeepSeek-R1-Distill-Qwen-7B /DeepSeek-R1-Distill-Qwen-14B
https://blogs.windows.com/windowsdeveloper/2025/01/29/running-distilled-deepseek-r1-models-locally-on-copilot-pcs-powered-by-windows-copilot-runtime/
你也可以尝试第三方的AnythingLLM, LLM Provider选择Qualcomm QNN,目前支持DeepSeek-R1-Distil llama_v3_2_3b or llama_v3_2_3b