关于GT430显卡的一个疑惑

saigirl 2013-02-05 10:17:38
GT430显卡用deviceQuery得出核心数是:
( 2) Multiprocessors x ( 48) CUDA Cores/MP: 96 CUDA Cores
warp size 是32.

如果我的理解没有错的话是说有2个SM,每个SM里有48个SP。但是一次指令执行一个warp,即由32个SP完成。但任意时刻只能执行一个warp,这样一个SM中空余的16个SP不是浪费了么?

是我理解有问题么?还是说这样设计有什么别的用处?
...全文
377 34 打赏 收藏 举报
写回复
34 条回复
切换为时间正序
当前发帖距今超过3年,不再开放新的回复
发表回复
qq_16654789 2014-06-18
  • 打赏
  • 举报
回复
emperro 2014-06-18
不太懂 来学习学习
  • 打赏
  • 举报
回复
balian2015 2014-06-18
这是一个多线程的问题
  • 打赏
  • 举报
回复
biscuij 2014-06-18
实际的实现,一次是以half warp,即16线程一组来执行,同一个warp的另外一半16线程紧接其后被调度。我理解的两个half warp的执行是不能拆开的,所以逻辑上,并行的最小单位是32线程,看你怎么理解。不了解这个细节,对编程也没有影响。
  • 打赏
  • 举报
回复
MLYLX 2014-06-18
我想说这个显卡你拿来干嘛了 ,不好说
  • 打赏
  • 举报
回复
sinat_16613645 2014-06-17
不是很懂的说
  • 打赏
  • 举报
回复
超人佳仔 2014-06-17
我想说这个显卡你拿来干嘛了
  • 打赏
  • 举报
回复
超人佳仔 2014-06-17
我想说这个显卡你拿来干嘛了
  • 打赏
  • 举报
回复
爱生活. 2014-06-17
我想说这个显卡你拿来干嘛了
  • 打赏
  • 举报
回复
qq_16613009 2014-06-17
下载flexled,求积分
  • 打赏
  • 举报
回复
sinat_16612855 2014-06-17
我想说这个显卡你拿来干嘛了
  • 打赏
  • 举报
回复
qq_16611689 2014-06-17
有2个SM,每个SM里有48个SP。但是一次指令执行一个warp,即由32个SP完成。但任意时刻只能执行一个warp,这样一个SM中空余的16个SP不是浪费了么
  • 打赏
  • 举报
回复
gunnimadande 2014-06-17
fermi的架构,只有执行双精度浮点运算的时候,才需要32个SP一起工作,这时候,同时执行的仍然是16线程。GT430没有双精度浮点运算能力
  • 打赏
  • 举报
回复
观望学习!!
  • 打赏
  • 举报
回复
ldq6605 2014-06-17
有2个SM,每个SM里有48个SP。但是一次指令执行一个warp,即由32个SP完成。但任意时刻只能执行一个warp,这样一个SM中空余的16个SP不是浪费了么
  • 打赏
  • 举报
回复
ldq6605 2014-06-17
参数你写的应该没问题,执行的时候,逻辑上按一个warp 32线程来并行,这是CUDA文档上的说法,便于理解。实际的实现,一次是以half warp,即16线程一组来执行,同一个warp的另外一半16线程紧接其后被调度。我理解的两个half warp的执行是不能拆开的,所以逻辑上,并行的最小单位是32线程,看你怎么理解。不了解这个细节,对编程也没有影响。 fermi的架构,只有执行双精度浮点运算的时候,才需要32个SP一起工作,这时候,同时执行的仍然是16线程。GT430没有双精度浮点运算能力,所以48个SP没有问题,不会浪费
  • 打赏
  • 举报
回复
ldq6605 2014-06-17
长见识,这个论坛有科学价值。
  • 打赏
  • 举报
回复
qq_16622245 2014-06-17
不是很懂的说
  • 打赏
  • 举报
回复
qq_16618227 2014-06-17
这个显卡 低端的 你到底想用来干嘛啊
  • 打赏
  • 举报
回复
qq_16617969 2014-06-17
430凑合啊
  • 打赏
  • 举报
回复
加载更多回复
相关推荐
发帖
CUDA
加入

518

社区成员

CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。
社区管理员
  • CUDA编程社区
申请成为版主
帖子事件
创建了帖子
2013-02-05 10:17
社区公告
暂无公告