社区
CUDA
帖子详情
请教下on-chip memory的概念
Vulcann
2010-08-19 09:45:25
看programm guide,最后那张performance那里,说device上的share memory是和global/local memory不同的,是on-chip的,这里on-chip和形容global memory, local memory的off-chip是什么意思呢?希望有了解的朋友解释一下概念,非常感谢
...全文
3016
5
打赏
收藏
请教下on-chip memory的概念
看programm guide,最后那张performance那里,说device上的share memory是和global/local memory不同的,是on-chip的,这里on-chip和形容global memory, local memory的off-chip是什么意思呢?希望有了解的朋友解释一下概念,非常感谢
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
5 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
hfutxrg
2011-04-27
打赏
举报
回复
对于individual thread来说,scalar variables are stored in registers, while array variables are stored in local memory, and local memory is part of global memory.
Vulcann
2010-08-19
打赏
举报
回复
谢谢大家关于on-chip的回复
至于说local memory,确实是global memory的一部分
对于cuda来说,简单的variable尽量都在register上保存,出现了所谓的register spilling,才会使用到local memory,对效率还是很有影响的
无心人_过过小日子
2010-08-19
打赏
举报
回复
[Quote=引用 2 楼 victorypiter 的回复:]
至于Local Memory, 我在怀疑它是off-chip吗?每个线程都自己的local Memory 难道不是on-chi……
[/Quote]
LS仔细看过资料的话,会发现local mem只是gmem中划出的一部分。是“逻辑概念”。
victorypiter
2010-08-19
打赏
举报
回复
具体来讲,Shared Memory为一个Block内的所有线程共享,我想应该是因为它在显卡的Streaming MultiProcessor (SM)内,叫On-chip
Global Memory为一个Grid内的所有线程共享,可能即所说的显存,在GPU芯片外,
至于Local Memory, 我在怀疑它是off-chip吗?每个线程都自己的local Memory 难道不是on-chip吗?
无心人_过过小日子
2010-08-19
打赏
举报
回复
smem在gpu芯片内,on-chip,访问速度极快,尺寸极小。
gmem(local mem实际是gmem的一部分)是在gpu芯片外,显卡上的,就是通常的显存。
技术美术个人笔记(九)——GPU入门(上)
《Render Hell——GPU入门》学习笔记 系列原文:Render Hell —— 史上最通俗易懂的GPU入门教程(一) 第一部分 · 渲染基础 当 VRAM 显存中的纹理不再被需要时, RAM 内存中将其删除, 而顶点数据则仍然需要保留在 RAM 中,因为大多数情况下 CPU 仍需要访问这些数据(比如碰撞检测(Collision Detection))。 GPU中含一小片内存 片上缓存(on-
chip
Cache) 拷贝小部分数据到此缓存以加快效率;其中含 二级缓存(L2 Cache) 访问速度要
英语-新
概念
-第三册
从第三册开始,文章更加注重分析句子之间内在的逻辑关系,从而充分认识和领悟英文句型的实用性,从而运用到生活实际当中;同时,将进一步扩充讲解词汇、语法及句型的实战运用。通过这一册的学习,我们可以合理的运用句型,使听、说、读、写的能力有一个新的飞跃和长进,能够熟练地表达和使用最流行的英语语言。这是决胜之战,在熟练掌握第二册的基础上,学完第三册,我们就真的可以使用英文进行阅读、对话等交流之中了,您日常工作中所看见的英文能力很强的那一批人,大部分英语水平甚至还没有到第三册,所以,坚持下来,你就是赢家!
外设IO地址空间中的地址怎么转换到内核态的虚拟地址空间(一个ioremap函数真的解释清楚了么)
LZ发问:在看到i/o
memory
i/o region,以及ioremap,mmap时,被这些
概念
弄糊涂了,看到zhanrk的《Linux对IO端口资源的管理》后,对
memory
-mapped的i/o还是有些疑问, 我们都知道,采用I/O映射方式的X86处理器为外设实现了一个单独的地址空间,也即“I/O空间”(I/O Space)或称为“I/O端口空间”,其大小是64KB(0
Linux内核同步机制之原子操作
本文转自http://www.wowotech.net/linux_kenrel/atomic.html,在作者原文基础上(黑体),加入自己的阅读理解(红色字体),形成学习笔记并记录于此。蜗窝科技,如果你是一位 Linux 驱动开发工程师,那么强烈建议把它加到你的收藏夹,干货实在是太多。 一、源由 我们的程序逻辑经常遇到这样的操作序列: 1、读一个位于
memory
中的变量的值到寄存器中 2、修改该变量的值(也就是修改寄存器中的值) 3、将寄存器中的数值写回 mem...
hcs301 c语言解码程序,
请教
各位:HCS301编码器是要编程的吗?
HCS301滚动码解码源程序 注意不是AVR的源码;------------------------------------------------------------------------------;MICRO
CHIP
KEELOQ CODE HOPPING SIMPLE DECODER;;-----------------------------------------------...
CUDA
589
社区成员
2,924
社区内容
发帖
与我相关
我的任务
CUDA
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
复制链接
扫一扫
分享
社区描述
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章