6,429
社区成员
发帖
与我相关
我的任务
分享我理解 QAIRT 宣称支持主流 AI 框架,但在实际工程里我们经常遇到“框架支持”与“端侧可部署”之间仍有不少差距。
想确认一下:如果我们手上是 TensorFlow / PyTorch 训练出来的模型,是否真的可以开箱即用直接上端侧运行?
还是说通常仍需要经过导出与转换(例如导出到 ONNX / TFLite / 其他中间格式)、以及后续的 图优化、量化/校准、算子替换、编译 才能跑到 NPU/HTP 上?
另外,在“看起来能跑”与“能高效跑在 NPU 上”之间,最关键的限制一般是什么(算子覆盖、动态 shape、控制流、内存/带宽、精度策略等)?