社区
摩尔线程
技术交流
帖子详情
摩尔线程的gpu支持tvm么
m0_62481656
2025-08-05 08:40:54
如题
...全文
21
回复
打赏
收藏
摩尔线程的gpu支持tvm么
如题
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
GPU
并行编程的系统修炼法:你与性能优化之间差的不只是代码
GPU
编程正迎来黄金时代,CUDA凭借其并行计算优势成为AI、HPC等领域的核心工具。文章从CPU与
GPU
架构差异切入,解析CUDA的核心价值:通过网格-块-
线程
三级模型实现高效并行计算,并拥有完整工具链
支持
。深入探讨了CUDA开发的三大挑战:
线程
网络组织、复杂内存层级管理(寄存器/共享内存/全局内存)以及Warp调度机制。最后指出真正的优化需要系统性认知,提出"性能调优四象限"方法论,强调从算法设计到内存访问模式的整体优化思路,而非单纯技巧堆叠。
MLIR:
摩尔
定律终结的编译器基础结构 论文解读
0x0. 前言 之前以MLIR的Toy Tutorials教程为切入点了解了MLIR,然后又对MLIR的ODS要点以及Interfaces等知识进行了详解。在继续学习MLIR的相关知识前,我想对MLIR做一个总结。而要了解MLIR的全貌,阅读MLIR论文是一个不错的方式。但论文对一些要点只是简单提出,所以我这篇文章将在用沐神阅读论文的方法阅读MLIR论文的基础上对MLIR的要点在Toy Tutotials中进行对应和指路,并尝试用一些图表来建立起MLIR编译器的整体架构。最后有一段小的个人思考。 沐神的论文
论文Compiler Technologies in Deep Learning Co-Design: A Survey分享
深度学习的应用飞速在发展,但是在硬件方面因为
摩尔
定律的失效导致通用的处理器无法满足深度学习模型的需求,因此需要专用的硬件来加速深度学习计算。本文详细阐述了过去有关深度学习中编译器以及协同设计的工作。最后,作者针对典型的深度学习协同设计系统提出了一种特定领域的编译框架——Buddy Compiler。作为一个编译器框架,buddy Compiler基于MLIR和RISC-V致力于构建一个可扩展和灵活的硬件-软件协同设计的生态系统。在神经网络的历史上,软件和硬件彼此相互推动,在过去的十年中,协同设计越来越重要。
【论文解读】基于MLIR的矩阵乘法高性能
GPU
代码生成:一些早期结果
0x0. 前言 本文是对 https://arxiv.org/abs/2108.13191 这篇论文进行解读,学习一下MLIR如何生成高效的
GPU
代码。本文的阅读顺序分别为:
“全网最全”LLM推理框架集结营 - 看似微不足道,却决定着AIGC项目的成本、效率与性能!
链接-上图展示了vLLM的整体架构。vLLM采用集中式调度器来协调分布式
GPU
工作程序的执行。KV缓存管理器通过PagedAttention以分页方式有效地管理KV缓存。具体来说,KV缓存管理器通过集中式调度器发送的指令来管理
GPU
工作程序上的物理KV缓存链接-TensorRT-LLM为用户提供了一个易于使用的PythonAPI,用来定义大型语言模型(LLM)并构建包含最先进优化的TensorRT引擎,从而在NVIDIA
GPU
上高效地执行推理。
摩尔线程
180
社区成员
94
社区内容
发帖
与我相关
我的任务
摩尔线程
摩尔线程成立于 2020 年 10 月,以全功能 GPU 为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的 AI 计算支持。 我们的目标是成为具备国际竞争力的 GPU 领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。
复制链接
扫一扫
分享
社区描述
摩尔线程成立于 2020 年 10 月,以全功能 GPU 为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的 AI 计算支持。 我们的目标是成为具备国际竞争力的 GPU 领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。
企业社区
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章