社区
CUDA
帖子详情
请教下on-chip memory的概念
Vulcann
2010-08-19 09:45:25
看programm guide,最后那张performance那里,说device上的share memory是和global/local memory不同的,是on-chip的,这里on-chip和形容global memory, local memory的off-chip是什么意思呢?希望有了解的朋友解释一下概念,非常感谢
...全文
2777
5
打赏
收藏
请教下on-chip memory的概念
看programm guide,最后那张performance那里,说device上的share memory是和global/local memory不同的,是on-chip的,这里on-chip和形容global memory, local memory的off-chip是什么意思呢?希望有了解的朋友解释一下概念,非常感谢
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
5 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
hfutxrg
2011-04-27
打赏
举报
回复
对于individual thread来说,scalar variables are stored in registers, while array variables are stored in local memory, and local memory is part of global memory.
Vulcann
2010-08-19
打赏
举报
回复
谢谢大家关于on-chip的回复
至于说local memory,确实是global memory的一部分
对于cuda来说,简单的variable尽量都在register上保存,出现了所谓的register spilling,才会使用到local memory,对效率还是很有影响的
无心人_过过小日子
2010-08-19
打赏
举报
回复
[Quote=引用 2 楼 victorypiter 的回复:]
至于Local Memory, 我在怀疑它是off-chip吗?每个线程都自己的local Memory 难道不是on-chi……
[/Quote]
LS仔细看过资料的话,会发现local mem只是gmem中划出的一部分。是“逻辑概念”。
victorypiter
2010-08-19
打赏
举报
回复
具体来讲,Shared Memory为一个Block内的所有线程共享,我想应该是因为它在显卡的Streaming MultiProcessor (SM)内,叫On-chip
Global Memory为一个Grid内的所有线程共享,可能即所说的显存,在GPU芯片外,
至于Local Memory, 我在怀疑它是off-chip吗?每个线程都自己的local Memory 难道不是on-chip吗?
无心人_过过小日子
2010-08-19
打赏
举报
回复
smem在gpu芯片内,on-chip,访问速度极快,尺寸极小。
gmem(local mem实际是gmem的一部分)是在gpu芯片外,显卡上的,就是通常的显存。
技术美术个人笔记(九)——GPU入门(上)
《Render Hell——GPU入门》学习笔记 系列原文:Render Hell —— 史上最通俗易懂的GPU入门教程(一) 第一部分 · 渲染基础 当 VRAM 显存中的纹理不再被需要时, RAM 内存中将其删除, 而顶点数据则仍然需要保留在 RAM 中,因为大多数情况下 CPU 仍需要访问这些数据(比如碰撞检测(Collision Detection))。 GPU中含一小片内存 片上缓存(on-
chip
Cache) 拷贝小部分数据到此缓存以加快效率;其中含 二级缓存(L2 Cache) 访问速度要
linux version 2.4.18-rmk7-pxa1,板子问题
请教
,请各位帮忙看看,谢谢
我今天收到板子了,连接串口,上电源。LED1 ~ LED5都亮了,然后LED1,LED5常亮,5秒以后,LED2熄灭,LED3闪烁三次后熄灭。LED4一直闪烁。同时,超级终端返回的信息是:VIVI version 0.1.4 (root@eady.mizi.com) (gcc version 2.95.3 19991030 (prerelease)) #0.1.4 Tue Jul 6 19:10:...
外设IO地址空间中的地址怎么转换到内核态的虚拟地址空间(一个ioremap函数真的解释清楚了么)
LZ发问:在看到i/o
memory
i/o region,以及ioremap,mmap时,被这些
概念
弄糊涂了,看到zhanrk的《Linux对IO端口资源的管理》后,对
memory
-mapped的i/o还是有些疑问, 我们都知道,采用I/O映射方式的X86处理器为外设实现了一个单独的地址空间,也即“I/O空间”(I/O Space)或称为“I/O端口空间”,其大小是64KB(0
hcs301 c语言解码程序,
请教
各位:HCS301编码器是要编程的吗?
HCS301滚动码解码源程序 注意不是AVR的源码;------------------------------------------------------------------------------;MICRO
CHIP
KEELOQ CODE HOPPING SIMPLE DECODER;;-----------------------------------------------...
spi驱动
SPI是"Serial Peripheral Interface" 的缩写,是一种四线制的同步串行通信接口,用来连接微控制器、传感器、存储设备,SPI设备分为主设备和从设备两种,用于通信和控制的四根线分别是:CS 片选信号SCK 时钟信号MISO 主设备的数据输入、从设备的数据输出脚MOSI 主设备的数据输出、从设备的数据输入脚因为在大多数情况下,CPU或SOC一侧通常都是工作在主设备
CUDA
580
社区成员
2,919
社区内容
发帖
与我相关
我的任务
CUDA
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
复制链接
扫一扫
分享
社区描述
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章