社区
CUDA on Linux
帖子详情
如何使用gpu进行tensor2tensor的训练?
qq_34427404
2020-05-16 08:21:27
我利用服务器训练tensor2tensor官方给定的手写字体的例子,但是训练过程并没有使用gpu(gpu可以正常使用),请问怎么才能利用gpu进行训练?
...全文
530
回复
打赏
收藏
如何使用gpu进行tensor2tensor的训练?
我利用服务器训练tensor2tensor官方给定的手写字体的例子,但是训练过程并没有使用gpu(gpu可以正常使用),请问怎么才能利用gpu进行训练?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
PyTorch
使用
GPU
进行
Tensor
及模型计算
对复杂的神经网络和大规模的数据来说,
使用
CPU来计算可能不够高效。这里,我们将介绍如何
使用
单块NVIDIA
GPU
来计算。。nvidia-smi输出如下:可以看到我这里只有两块,单块显卡有11G的显存。
GPU
的
tensor
转化成numpy
GPU
tensor
不能直接转换成numpy先转换成CPU
tensor
,再转换成numpy 例如对
GPU
tensor
img 操作转换成numpy为 img = img.cpu() img = img.numpy()
Pytorch学习(九)Pytorch中CPU和
GPU
的
Tensor
转换,
Tensor
和ndarray的转换及.cuda(non_blocking=True)的作用
1. 设置
训练
模型的
GPU
设备的方式 device = torch.device("cuda:1" ) model = model.to(device) 2. CPU和
GPU
上
Tensor
的比较 该部分参考自来自达摩院大神的讲解 PyTorch中的数据类型为
Tensor
,
Tensor
与Numpy中的ndarray类似,同样可以用于标量,向量,矩阵乃至更高维度上面的计算。PyTorch中的
tensor
又包括CPU上的数据类型和
GPU
上的数据类型,一般
GPU
上的
Tensor
是CPU上的
Tensor
加cuda(
PyTorch
使用
GPU
训练
Pytorch
使用
GPU
训练
使用
GPU
训练
只需要在原来的代码中修改几处就可以了。 我们有两种方式实现代码在
GPU
上
进行
训练
## 方法一 .cuda() 我们可以通过对网络模型,数据,损失函数这三种变量调用 .cuda() 来在
GPU
上
进行
训练
# 将网络模型在
gpu
上
训练
model = Model() model = model.cuda() # 损失函数在
gpu
上
训练
loss_fn = nn.CrossEntropyLoss() loss_fn = loss_fn.cuda()
GPU
中的
tensor
的
使用
GPU
中的
tensor
的
使用
1.实例化device:torch.device("cuda:0" if torch.cuda.is_avaiable() else "cpu") 2.
tensor
.to(device) #把
tensor
转化为CUDA支持的
tensor
,或者cpu支持的
tensor
CUDA on Linux
374
社区成员
345
社区内容
发帖
与我相关
我的任务
CUDA on Linux
CUDA on Linux
复制链接
扫一扫
分享
社区描述
CUDA on Linux
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章