PyTorch训练中loss.backward报错情况怎么办
Admin 2022-07-23 群英技术资讯 1323 次浏览
这篇文章给大家分享的是“PyTorch训练中loss.backward报错情况怎么办”,对大家学习和理解有一定的参考价值和帮助,有这方面学习需要的朋友,接下来就跟随小编一起学习一下吧。训练用PyTorch编写的LSTM或RNN时,在loss.backward()上报错:
RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.
千万别改成loss.backward(retain_graph=True),会导致显卡内存随着训练一直增加直到OOM:
RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 10.73 GiB total capacity; 9.79 GiB already allocated; 13.62 MiB free; 162.76 MiB cached)
LSRM / RNN模块初始化时定义好hidden,每次forward都要加上self.hidden = self.init_hidden():
Class LSTMClassifier(nn.Module):
def __init__(self, embedding_dim, hidden_dim):
# 此次省略其它代码
self.rnn_cell = nn.LSTM(embedding_dim, hidden_dim)
self.hidden = self.init_hidden()
# 此次省略其它代码
def init_hidden(self):
# 开始时刻, 没有隐状态
# 关于维度设置的详情,请参考 Pytorch 文档
# 各个维度的含义是 (Seguence, minibatch_size, hidden_dim)
return (torch.zeros(1, 1, self.hidden_dim),
torch.zeros(1, 1, self.hidden_dim))
def forward(self, x):
# 此次省略其它代码
self.hidden = self.init_hidden() # 就是加上这句!!!!
out, self.hidden = self.rnn_cell(x, self.hidden)
# 此次省略其它代码
return out
或者其它模块每次调用这个模块时,其它模块的forward()都对这个LSTM模块init_hidden()一下。
Class LSTM_Model(nn.Module):
def __init__(self, embedding_dim, hidden_dim):
# 此次省略其它代码
self.rnn = LSTMClassifier(embedding_dim, hidden_dim)
# 此次省略其它代码
def forward(self, x):
# 此次省略其它代码
self.rnn.hidden = self.rnn.init_hidden() # 就是加上这句!!!!
out = self.rnn(x)
# 此次省略其它代码
return out
这是因为:
根据 官方tutorial,在 loss 反向传播的时候,pytorch 试图把 hidden state 也反向传播,但是在新的一轮 batch 的时候 hidden state 已经被内存释放了,所以需要每个 batch 重新 init (clean out hidden state), 或者 detach,从而切断反向传播。
补充:pytorch:在执行loss.backward()时out of memory报错
在自己编写SurfNet网络的过程中,出现了这个问题,查阅资料后,将得到的解决方法汇总如下
1、reduce batch size, all the way down to 1
2、remove everything to CPU leaving only the network on the GPU
3、remove validation code, and only executing the training code
4、reduce the size of the network (I reduced it significantly: details below)
5、I tried scaling the magnitude of the loss that is backpropagating as well to a much smaller value
在训练时,在每一个step后面加上:
torch.cuda.empty_cache()
在每一个验证时的step之后加上代码:
with torch.no_grad()
不要在循环训练中累积历史记录
total_loss = 0
for i in range(10000):
optimizer.zero_grad()
output = model(input)
loss = criterion(output)
loss.backward()
optimizer.step()
total_loss += loss
total_loss在循环中进行了累计,因为loss是一个具有autograd历史的可微变量。你可以通过编写total_loss += float(loss)来解决这个问题。
本人遇到这个问题的原因是,自己构建的模型输入到全连接层中的特征图拉伸为1维向量时太大导致的,加入pool层或者其他方法将最后的卷积层输出的特征图尺寸减小即可。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
这篇文章给大家分享的是关于python实现德洛内三角剖分的内容,下文有实现代码以及生长算法实现点集的三角剖分的相关内容,感兴趣的朋友可以参考了解看看,希望大家阅读完这篇文章能有所收获。
PIL是Python Imaging Library的简称,PIL是一个Python处理图片的库,提供了一系列模块和方法,比如:裁切,平移,旋转,改变尺寸等等。已
这篇文章主要介绍了python 获取页面所有a标签下href的值操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
python的input函数怎样用?input函数是python中比较实用的一个函数,对此,这篇文章就主要给大家分享input函数的使用,具有一定的借鉴价值,感兴趣的朋友可以参考一下,希望大家阅读完这篇文章能有所收获,下面我们一起来学习一下。
马上不就到圣诞节了嘛,我看到朋友圈里很多小伙伴再纷纷炫耀自己收到的专属圣诞树,今天小编给大家介绍的是通过Python绘制的五合一版圣诞树:圣诞树+落叶+雪花+背景音乐+浪漫弹窗。感兴趣的小伙伴快来学习一下吧
成为群英会员,开启智能安全云计算之旅
立即注册关注或联系群英网络
7x24小时售前:400-678-4567
7x24小时售后:0668-2555666
24小时QQ客服
群英微信公众号
CNNIC域名投诉举报处理平台
服务电话:010-58813000
服务邮箱:service@cnnic.cn
投诉与建议:0668-2555555
Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 ICP核准(ICP备案)粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008