3,014
社区成员




我在使用高通的wos-ai-plugins, 在 Windows 上的 Qualcomm X Elite 上,并且最终启动时也是如此。
Loading models from C:\Users<username>\wos-ai-plugins\stable-diffusion-webui\models\Stable-diffusion\qcom-Stable-Diffusion-v1.5
0.0ms [^main][13644][ ERROR ] QnnDsp DspTransport.openSession qnn_open failed, 0x80000406
0.0ms [^main][13644][ ERROR ] QnnDsp IDspTransport: Unable to load lib 0x80000406
0.0ms [^main][13644][ ERROR ] QnnDsp DspTransport failed,cannot open session, error 0x00000008
0.0ms [^main][13644][ ERROR ] QnnDsp Unable to load Skel Library. transportStatus: 8
0.0ms [^main][13644][ ERROR ] QnnDsp Failed to retrieve skel build id: err: 1008
0.0ms [~upscale][10896][ ERROR ] QnnDsp DspTransport.openSession qnn_open failed, 0x80000406
0.0ms [~upscale][10896][ ERROR ] QnnDsp IDspTransport: Unable to load lib 0x80000406
0.0ms [~upscale][10896][ ERROR ] QnnDsp DspTransport failed,cannot open session, error 0x00000008
0.0ms [~upscale][10896][ ERROR ] QnnDsp Unable to load Skel Library. transportStatus: 8
0.0ms [~upscale][10896][ ERROR ] QnnDsp Failed to retrieve skel build id: err: 1008
Running on local URL: http://127.0.0.1:7860
To create a public link, set share=True in launch().
我在 C:\Qualcomm\AIStack\QAIRT\2.28.0.241029\ 处安装了 QUIRT
WebUI 中不存在Stable Diffusion 模型,并且只能选择默认模型 (v1-5-pruned-emaonly.safetensors)。该模型不使用 NPU,也不使用 GPU, 请问这个应该如何使用?
截至目前,如果没有 QNN 转换,我们就无法使用 NPU。
我同意,如果能够支持直接运行安全张量,那就太好了,这是一种非常可扩展的方法。
我们确实有一个带有 torch ExecuTorch 的 QNN 后端(https://pytorch.org/executorch/stable/build-run-qualcomm-ai-engine-direct-backend.html%EF%BC%89%EF%BC%8C%E4%BD%86%E5%9C%A8%E8%BF%99%E9%87%8C%E6%88%91%E4%BB%AC%E4%B9%9F%E9%9C%80%E8%A6%81%E7%BC%96%E8%AF%91%E6%A8%A1%E5%9E%8B%E5%90%8E%E7%AB%AF%E7%89%B9%E5%AE%9A%E6%A0%BC%E5%BC%8F (pte)。我认为这可能成为未来启用 torch 模型的首选方法。如果是这样的话,我们将在不久的将来更新该项目。