请教下on-chip memory的概念

Vulcann 2010-08-19 09:45:25

看programm guide,最后那张performance那里,说device上的share memory是和global/local memory不同的,是on-chip的,这里on-chip和形容global memory, local memory的off-chip是什么意思呢?希望有了解的朋友解释一下概念,非常感谢
...全文
2777 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
hfutxrg 2011-04-27
  • 打赏
  • 举报
回复
对于individual thread来说,scalar variables are stored in registers, while array variables are stored in local memory, and local memory is part of global memory.
Vulcann 2010-08-19
  • 打赏
  • 举报
回复

谢谢大家关于on-chip的回复

至于说local memory,确实是global memory的一部分

对于cuda来说,简单的variable尽量都在register上保存,出现了所谓的register spilling,才会使用到local memory,对效率还是很有影响的
  • 打赏
  • 举报
回复
[Quote=引用 2 楼 victorypiter 的回复:]
至于Local Memory, 我在怀疑它是off-chip吗?每个线程都自己的local Memory 难道不是on-chi……
[/Quote]

LS仔细看过资料的话,会发现local mem只是gmem中划出的一部分。是“逻辑概念”。
victorypiter 2010-08-19
  • 打赏
  • 举报
回复
具体来讲,Shared Memory为一个Block内的所有线程共享,我想应该是因为它在显卡的Streaming MultiProcessor (SM)内,叫On-chip
Global Memory为一个Grid内的所有线程共享,可能即所说的显存,在GPU芯片外,
至于Local Memory, 我在怀疑它是off-chip吗?每个线程都自己的local Memory 难道不是on-chip吗?
  • 打赏
  • 举报
回复
smem在gpu芯片内,on-chip,访问速度极快,尺寸极小。
gmem(local mem实际是gmem的一部分)是在gpu芯片外,显卡上的,就是通常的显存。

580

社区成员

发帖
与我相关
我的任务
社区描述
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
社区管理员
  • CUDA编程社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧