pytorch的梯度计算以及backward方法详解


Posted in Python onJanuary 10, 2020

基础知识

tensors:

tensor在pytorch里面是一个n维数组。我们可以通过指定参数reuqires_grad=True来建立一个反向传播图,从而能够计算梯度。在pytorch中一般叫做dynamic computation graph(DCG)——即动态计算图。

import torch
import numpy as np

# 方式一
x = torch.randn(2,2, requires_grad=True)

# 方式二
x = torch.autograd.Variable(torch.Tensor([2,3]), requires_grad=True)

#方式三
x = torch.tensor([2,3], requires_grad=True, dtype=torch.float64)

# 方式四
x = np.array([1,2,3] ,dtype=np.float64)
x = torch.from_numpy(x)
x.requires_grad = True
# 或者 x.requires_grad_(True)

note1:在pytorch中,只有浮点类型的数才有梯度,故在方法四中指定np数组的类型为float类型。为什么torch.Tensor中不需要呢,可以通过以下代码验证

import torch
import numpy as np

a = torch.Tensor([2,3])
print(a.dtype) # torch.floaat32

b = torch.tensor([2,3])
print(b.dtype) # torch.int64

 c = np.array(2,3)
 print(c.dtype) # int64

note2pytorch中tensor与Tensor的区别是什么?这两个看起来如此相似。

首先,torch.Tensor是一个类,所有的tensor都是Tensor的一个实例;而torch.tensor是一个函数。这也说明了为什么使用torch.Tensor()没有问题而torch.tensor()却有问题。

其次,torch.tensor主要是将一个data封装成tensor,并且可以指定requires_grad。

torch.tensor(data,dtype=None,device=None,requires_grad=False) - > Tensor

最后,我们更多地使用torch.tensor,我们可以通过使用torch.tensor(())来达到与torch.Tensor()同样的效果。

具体可参考torch.tensor与torch.Tensor的区别

Dynamic Computational graph

我们来看一个计算图

pytorch的梯度计算以及backward方法详解

我们 来看一个计算图 解释一下各个属性的含义,

data: 变量中存储的值,如x中存储着1,y中存储着2,z中存储着3

requires_grad:该变量有两个值,True 或者 False,如果为True,则加入到反向传播图中参与计算。

grad:该属性存储着相关的梯度值。当requires_grad为False时,该属性为None。即使requires_grad为True,也必须在调用其他节点的backward()之后,该变量的grad才会保存相关的梯度值。否则为None

grad_fn:表示用于计算梯度的函数。

is_leaf:为True或者False,表示该节点是否为叶子节点。

当调用backward函数时,只有requires_grad为true以及is_leaf为true的节点才会被计算梯度,即grad属性才会被赋予值。

梯度计算

examples

运算结果变量的requires_grad取决于输入变量。例如:当变量z的requires_grad属性为True时,为了求得z的梯度,那么变量b的requires_grad就必须为true了,而变量x,y,a的requires_grad属性都为False。

将事先创建的变量,如x、y、z称为创建变量;像a、b这样由其他变量运算得到的称为结果变量。

from torch.autograd import Variable

x = Variable(torch.randn(2,2))
y = Variable(torch.randn(2,2))
z = Variable(torch.randn(2,2), requires_grad=True)


a = x+y
b = a+z

print(x.requires_grad, y.requires_grad, z.requires_grad) # False, False, True
print(a.requires_grad, b.requires_grad) # False, True

print(x.requires_grad) # True
print(a.requires_grad) # True

调用backward()计算梯度

import torch as t
from torch.autograd import Variable as v

a = v(t.FloatTensor([2, 3]), requires_grad=True) 
b = a + 3
c = b * b * 3
out = c.mean()
out.backward(retain_graph=True) # 这里可以不带参数,默认值为‘1',由于下面我们还要求导,故加上retain_graph=True选项

print(a.grad) # tensor([15., 18.])

backward中的gradient参数使用

a. 最后的结果变量为标量(scalar)

如第二个例子,通过调用out.backward()实现对a的求导,这里默认调用了out.backward(gradient=None)或者指定为out.backward(gradient=torch.Tensor([1.0])

b. 最后的结果变量为向量(vector)

import torch
from torch.autograd import Variable as V

m = V(torch.FloatTensor([2, 3]), requires_grad=True) # 注意这里有两层括号,非标量
n = V(torch.zeros(2))
n[0] = m[0] ** 2
n[1] = m[1] ** 3
n.backward(gradient=torch.Tensor([1,1]), retain_graph=True)
print(m.grad)

结果为:

tensor([ 4., 27.])

如果使用n.backward()的话,那么就会报如下的错:RuntimeError: grad can be implicitly created only for scalar outputs

注意:这里的gradient的维度必须与n的维度相同。其中的原理如下:

在执行z.backward(gradient)的时候,如果z不是一个标量,那么先构造一个标量的值:L = torch.sum(z*gradient),再计算关于L对各个leaf Variable的梯度。

pytorch的梯度计算以及backward方法详解

以上这篇pytorch的梯度计算以及backward方法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持三水点靠木。

Python 相关文章推荐
python thread 并发且顺序运行示例
Apr 09 Python
Python中List.count()方法的使用教程
May 20 Python
python利用标准库如何获取本地IP示例详解
Nov 01 Python
Python中摘要算法MD5,SHA1简介及应用实例代码
Jan 09 Python
python中set()函数简介及实例解析
Jan 09 Python
浅谈python实现Google翻译PDF,解决换行的问题
Nov 28 Python
python整合ffmpeg实现视频文件的批量转换
May 31 Python
Python函数中参数是传递值还是引用详解
Jul 02 Python
用pytorch的nn.Module构造简单全链接层实例
Jan 14 Python
Python 3.8 新功能来一波(大部分人都不知道)
Mar 11 Python
浅谈Python3多线程之间的执行顺序问题
May 02 Python
python 元组和列表的区别
Dec 30 Python
Python如何获取Win7,Win10系统缩放大小
Jan 10 #Python
python-OpenCV 实现将数组转换成灰度图和彩图
Jan 09 #Python
Python 实现将数组/矩阵转换成Image类
Jan 09 #Python
python 实现将Numpy数组保存为图像
Jan 09 #Python
Python+OpenCV实现将图像转换为二进制格式
Jan 09 #Python
如何使用Python破解ZIP或RAR压缩文件密码
Jan 09 #Python
python读取raw binary图片并提取统计信息的实例
Jan 09 #Python
You might like
PHP下利用header()函数设置浏览器缓存的代码
2010/09/01 PHP
PHP整数取余返回负数的相关解决方法
2014/05/15 PHP
关于php几种字符串连接的效率比较(详解)
2017/02/22 PHP
PHP排序算法之希尔排序(Shell Sort)实例分析
2018/04/20 PHP
使用PHPExcel导出Excel表
2018/09/08 PHP
ext监听事件方法[初级篇]
2008/04/27 Javascript
jQuery队列操作方法实例
2014/06/11 Javascript
jquery+php实现搜索框自动提示
2014/11/28 Javascript
jQuery在ul中显示某个li索引号的方法
2015/03/17 Javascript
jquery判断复选框选中状态以及区分attr和prop
2015/12/18 Javascript
浅谈Web页面向后台提交数据的方式和选择
2016/09/23 Javascript
Bootstrap CSS组件之导航条(navbar)
2016/12/17 Javascript
jQuery为DOM动态追加事件的方法
2017/02/16 Javascript
Angular实现跨域(搜索框的下拉列表)
2017/02/16 Javascript
基于Node.js的WebSocket通信实现
2017/03/11 Javascript
jQuery查找和过滤_动力节点节点Java学院整理
2017/07/04 jQuery
深入理解jquery的$.extend()、$.fn和$.fn.extend()
2017/07/08 jQuery
vue 怎么创建组件及组件使用方法
2017/07/27 Javascript
template.js前端模板引擎使用详解
2017/10/10 Javascript
jQuery发请求传输中文参数乱码问题的解决方案
2018/05/22 jQuery
详解vue使用vue-layer-mobile组件实现toast,loading效果
2018/08/31 Javascript
用jQuery实现抽奖程序
2020/04/12 jQuery
基于element-ui封装表单金额输入框的方法示例
2021/01/06 Javascript
Django基础知识 URL路由系统详解
2019/07/18 Python
解决python图像处理图像赋值后变为白色的问题
2020/06/04 Python
什么是CSS3 HSLA色彩模式?HSLA模拟渐变色条
2016/04/26 HTML / CSS
HTML5标签使用方法详解
2015/11/27 HTML / CSS
关于HTML5 Placeholder新标签低版本浏览器下不兼容的问题分析及解决办法
2016/01/27 HTML / CSS
Html5定位终极解决方案
2020/02/05 HTML / CSS
美国在线奢侈品寄售商店:Luxury Garage Sale
2018/08/19 全球购物
入党申请书自我鉴定
2013/10/12 职场文书
大三毕业自我鉴定
2014/01/15 职场文书
感恩祖国演讲稿
2014/09/09 职场文书
开会通知
2015/04/20 职场文书
队名及霸气口号大全
2015/12/25 职场文书
比较node.js和Deno
2021/04/27 Javascript