自己基于Qwen3训练的模型是否可以转换后使用?

qq_39106697 2026-02-05 12:13:29

我们公司有一个自己训练的模型(基于Qwen3-4B),如果需要集成在这次的项目中,是否直接安装https://github.com/quic/ai-engine-direct-helper/tree/main/tools/convert/onnx2bin转换就能直接使用了?

...全文
33 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复

这个是CV模型的示例,对于LLM起到参考作用。经过qnn-onnx-converter、qnn-model-lib-generator、qnn-context-binary-generator操作是可以部署到AI-PC。但是过程会存在一些动态、算子等问题,需要自行进行适配。

资源下载链接为: https://pan.xunlei.com/s/VOZ0np3arMZlRO3eQHf_-9hYA1?pwd=qtc9 本文介绍大规模音语言模型 Qwen2-Audio 的最新进展,该模型可接收多种音频信号输入,根据语音指令完成音频分析或直接生成文本响应。其支持两种不同的音频交互模式: 目前已发布 Qwen2-Audio 系列的两款模型:Qwen2-Audio-7B 与 Qwen2-Audio-7B-Instruct。 在13项标准基准测试中对 Qwen2-Audio 的能力进行评估,涉及自动语音识别(ASRAutomatic Speech Recognition)、音乐相关基准测试(Chat-Benchmark-Music)等任务,对应数据集包括 Fleurs(dev 分区)、MusicCaps(dev 分区)等。 所呈现的评估结果基于原始训练框架的初始模型,框架转换为 Hugging Face 后,分数出现一定波动,此处先展示论文中初始模型的完整评估结果。部分任务评估详情如下: 任务 数据集 模型 性能指标 结果 ASR Librispeech(dev-clean)、Fleurs(中文) Whisper-large-v3 WER 7.7 ASR Librispeech(dev-clean)、Fleurs(中文) Qwen2-Audio(初始模型) WER 7.5 ASR Librispeech(dev-clean)、Fleurs(中文) Qwen2-Audio(Hugging Face 转换后) WER 7.0 另有 Aishell2、Mic、CoVoST2(es-en)、AIR-Bench、Chat Benchmark、Speech 等任务的评估,且已提供所有评估脚本以复现结果,详情可参考 eval_audio/EVALUATION.md。

6,956

社区成员

发帖
与我相关
我的任务
社区描述
本论坛以AI、WoS 、XR、IoT、Auto、生成式AI等核心板块组成,为开发者提供便捷及高效的学习和交流平台。 高通开发者专区主页:https://qualcomm.csdn.net/
人工智能物联网机器学习 技术论坛(原bbs) 北京·东城区
社区管理员
  • csdnsqst0050
  • chipseeker
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧