社区
CUDA高性能计算讨论
帖子详情
有没有办法能定量计算一个给定规格的GPU的数据处理量
CloudAbyss
2013-06-03 08:48:48
比如给定CUDA核心数量,以及频率等其它要素,是否可以计算出这个GPU一秒内处理的数据量到底有多少?
主要是是因为我查了下GEFORCE官网,发现从GTX660以上,规格每往上提升一档,价格呈倍往上翻,我有个疑问,那些高端显卡到底有没有必要。
主要是显卡性能再高,处理的数据都要通过PCI-E3.0与外界沟通,而这个PCI-E3.0的带宽顶死了也就32GB/S。所以显卡的处理数据能力超过这个数量级的,我可不可以都认为这是浪费呢?
...全文
190
1
打赏
收藏
有没有办法能定量计算一个给定规格的GPU的数据处理量
比如给定CUDA核心数量,以及频率等其它要素,是否可以计算出这个GPU一秒内处理的数据量到底有多少? 主要是是因为我查了下GEFORCE官网,发现从GTX660以上,规格每往上提升一档,价格呈倍往上翻,我有个疑问,那些高端显卡到底有没有必要。 主要是显卡性能再高,处理的数据都要通过PCI-E3.0与外界沟通,而这个PCI-E3.0的带宽顶死了也就32GB/S。所以显卡的处理数据能力超过这个数量级的,我可不可以都认为这是浪费呢?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
1 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
linxxx3
2013-06-04
打赏
举报
回复
处理能力峰值,用核心 X 频率 X 单周期执行的运算指令数,tesla的卡,记得官网上直接标了peak flops。 但是,处理器峰值,和数据吞吐量,不一定是简单的相等或者线性的关系,要看你计算的模式。简单的例子,矩阵的规模如果是N^2,矩阵乘法的计算量,是N^3
ubuntu 查看
GPU
使用信息以及用
GPU
进行TensorFlow
计算
加速
nvidia自带了
一个
nvidia-smi的命令行工具,会显示显存的使用情况 nvidia-smi 解析 第一栏中:Driver Version :352.63 表示我们使用的驱动是352.63 第二栏中: 第一行...
GPU
优化方法[转]
在开始考虑使用
GPU
和CPU协同
计算
之前,应该先粗略的评估使用CUDA是否能达到预想的效果,包括以下几个方面: 精度:目前
GPU
的单精度性能要远远超过双精度性能,整数乘法、求模、求余等运算的指令吞吐
量
也较为有限。...
GPU
优化方法
在开始考虑使用
GPU
和CPU协同
计算
之前,应该先粗略的评估使用CUDA是否能达到预想的效果,包括以下几个方面:精度:目前
GPU
的单精度性能要远远超过双精度性能,整数乘法、求模、求余等运算的指令吞吐
量
也较为有限。...
Efficient Large-Scale Language Model Training on
GPU
ClustersUsing Megatron-LM
利用数据并行进行规模化,通常表现很好但是存在两方面的限制:a) 除了
一个
节点的情况,每个
GPU
的batch size 太小会将带
GPU
的利用率,增加通信的损耗b) 可用设备的最大数是batch的size,限制了加速器的数
量
。...
PyTorch学习笔记(2)- 数据、可视化、
GPU
加速、持久化
数据、可视化、
GPU
加速
CUDA高性能计算讨论
353
社区成员
615
社区内容
发帖
与我相关
我的任务
CUDA高性能计算讨论
CUDA高性能计算讨论
复制链接
扫一扫
分享
社区描述
CUDA高性能计算讨论
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章