LogoLogo
  • README
  • 前端编程
    • 01 Node JS
    • 02-ES6详解
    • 03-NPM详解
    • 04-Babel详解
    • 05-前端模块化开发
    • 06-WebPack详解
    • 07-Vue详解
    • 08-Git详解
    • 09-微信小程序
  • 人工智能
    • 机器学习
      • 二次分配问题
      • 非负矩阵
      • 概率潜在语义分析
      • 概率图模型
      • 集成学习
      • 降维
      • 距离度量
      • 决策树
      • 逻辑回归
      • 马尔可夫决策过程
      • 马尔可夫链蒙特卡洛法
      • 朴素贝叶斯法
      • 谱聚类
      • 奇异值分解
      • 潜在狄利克雷分配
      • 潜在语义分析
      • 强化学习
      • 社区算法
      • 时间序列模型
      • 特征工程
      • 条件随机场
      • 图论基础
      • 线性分类
      • 线性回归
      • 信息论中的熵
      • 隐马尔科夫模型
      • 支持向量机
      • 主成分分析
      • EM算法
      • Hermite 矩阵的特征值不等式
      • k-means聚类
      • k近邻法
      • PageRank算法
    • 深度学习
      • Pytorch篇
        • 01-线性模型
        • 02-梯度下降法
        • 03-反向传播
        • 04-pytorch入门
        • 05-用pytorch实现线性回归
        • 06-logistic回归
        • 07-处理多维特征的输入
        • 08-加载数据集
        • 09-多分类问题
        • 10-卷积神经网络
        • 11-循环神经网络
    • 图神经网络
      • 图神经网络笔记01
        • 01-图(Graphs)的结构
        • 02-网络的性质和随机图模型
        • 03-网络工具
        • 04-网络中的主题和结构角色
        • 05-网络中的社区结构
      • 图神经网络笔记02
        • 01-深度学习引言
        • 02-神经网络基础
        • 03-卷积神经网络
        • 04-图信号处理与图卷积神经网络
        • 05-GNN的变体与框架-
        • [06-Google PPRGo 两分钟分类千万节点的最快GNN](人工智能/图神经网络/图神经网络笔记02/06-Google%20PPRGo 两分钟分类千万节点的最快GNN.md)
        • 07-序列模型
        • 08-变分自编码器
        • 09-对抗生成网络
  • 日常记录
    • 健身日记
    • 面经记录
    • 自动生成Summary文件
  • 实战项目
    • 谷粒商城
      • 00-项目概述
      • 01-分布式基础-全栈开发篇
      • 02-分布式高级-微服务架构篇
      • 03-高可用集群-架构师提升篇
  • 数据库
    • MySQL笔记
      • 01-MySQL基础篇
      • 02-MySQL架构篇
      • 03-MySQL索引及调优篇
      • 04-MySQL事务篇
      • 05-MySQL日志与备份篇
    • Redis笔记
      • 01-Redis基础篇
      • 02-Redis高级篇
    • 02-Redis篇
  • 算法笔记
    • 01-算法基础篇
    • 02-算法刷题篇
  • 职能扩展
    • 产品运营篇
  • Go编程
    • 01-Go基础
      • 01-Go基础篇
  • Java编程
    • 01-Java基础
      • 01-Java基础篇
      • 02-多线程篇
      • 03-注射与反解篇
      • 04-JUC并发编程篇
      • 05-JUC并发编程与源码分析
      • 06-JVM原理篇
      • 07-Netty原理篇
      • 08-设计模式篇
    • 02 Java Web
      • 01-Mybatis篇
      • 01-Mybatis篇(新版)
      • 02-Spring篇
      • 02-Spring篇(新版)
      • 03-SpringMVC篇
      • 04-MybatisPlus篇
    • 03-Java微服务
      • 01-SpringBoot篇
      • 01-SpringBoot篇(新版)
      • 02-SpringSecurity篇
      • 03-Shiro篇
      • 04-Swagger篇
      • 05-Zookeeper篇
      • 06-Dubbo篇
      • 07-SpringCloud篇
      • 08-SpringAlibaba篇
      • 09-SpringCloud篇(新版)
    • 04-Java中间件
      • 数据库篇
        • 01-分库分表概述
        • 02-MyCat篇
        • 03-MyCat2篇
        • 04-Sharding-jdbc篇
        • 05-ElasticSearch篇
      • 消息中间件篇
        • 01-MQ概述
        • 02-RabbitMQ篇
        • 03-Kafka篇
        • 04-RocketMQ篇
        • 05-Pulsar篇
    • 05-扩展篇
      • Dubbo篇
      • SpringBoot篇
      • SpringCloud篇
    • 06-第三方技术
      • 01-CDN技术篇
      • 02-POI技术篇
      • 03-第三方支付技术篇
      • 04-第三方登录技术篇
      • 05-第三方短信接入篇
      • 06-视频点播技术篇
      • 07-视频直播技术篇
    • 07-云原生
      • 01-Docker篇
      • 02-Kubernetes篇
      • 03-Kubesphere篇
  • Linux运维
    • 01-Linux篇
    • 02-Nginx篇
  • Python编程
    • 01-Python基础
      • 01.配置环境
      • 02.流程控制
      • 03.数值
      • 04.操作符
      • 05.列表
      • 06.元祖
      • 07.集合
      • 08.字典
      • 09.复制
      • 10.字符串
      • 11.函数
      • 12.常见内置函数
      • 13.变量
      • 14.异常和语法错误
      • 15.时间和日期
      • 16.正则表达式
    • 02 Python Web
      • flask篇
        • 01.前言
        • 02.路由
        • 03.模板
        • 04.视图进阶
        • 05.flask-sqlalchemy
        • 06.表单WTForms
        • 07.session与cookie
        • 08.上下文
        • 09.钩子函数
        • 10.flask 信号
        • 11.RESTFUL
        • 13.flask-mail
        • 14.flask+celery
        • 15.部署
        • 16.flask-login
        • 17.flask-cache
        • 18.flask-babel
        • 19.flask-dashed
        • 20.flask-pjax
        • 21.flask上传文件到第三方
        • 22.flask-restless
        • 23.flask-redis
        • 24.flask-flash
        • 25.消息通知
        • 26.分页
    • 03-Python数据分析
      • Matplotlib
      • Numpy
      • Pandas
      • Seaborn
    • 04-Python爬虫
      • 1.准备工作
      • 2.请求模块的使用
      • 3.解析模块的使用
      • 4.数据存储
      • 5.识别验证码
      • 6.爬取APP
      • 7.爬虫框架
      • 8.分布式爬虫
由 GitBook 提供支持
在本页
  • 介绍
  • 反向传播
  • 梯度消失
  • Autograd:自动求导
  • 张量
  • 梯度

这有帮助吗?

在GitHub上编辑
  1. 人工智能
  2. 图神经网络
  3. 图神经网络笔记02

02-神经网络基础

上一页01-深度学习引言下一页03-卷积神经网络

最后更新于3年前

这有帮助吗?

介绍

神经网络的运行过程分为三步: 前向传播、 反向传播、 参数更新, 通过不断迭代进行模型参数的更新, 以从数据中挖掘出有价值的信。

image-20210227210221535
  1. 前向传播: 给定输入和参数, 逐层向前进行计算, 最后输出预测结果;

  2. 反向传播: 基于前向传播得到的预测结果, 使用损失函数得到损失值, 然后计算 相关参数的梯度, 该计算方法称为反向传播(back-propagation) , 具体的细节后面将详细 介绍;

  3. 参数更新: 使用梯度下降算法对参数进行更新, 重复上述过程, 逐步迭代, 直到 模型收敛 。

反向传播

以多层感知器为例子,进行介绍反向传播算法。给定样本${(x_n,y_n)}_{n=1}^N$,使用多层感知器的消息传递公式可以进行前向传播,这个过程用下进行描述:

给定样本$(x,y)$,前向传播得到输出$\hat y$,对应的损失值为$L(y,\hat y)$,接下来求参数矩阵$W^{(l)}$的梯度$\frac{\partial{L(y,\hat y)}}{\partial{W^{(l)}}}$,使用链式法则如下:

∂L(y,y^)∂W(l)=∂L(y,y^)∂z(l)∂z(l)∂W(l)\frac{\partial{L(y,\hat y)}}{\partial{W^{(l)}}} = \frac{\partial{L(y,\hat y)}}{\partial{z^{(l)}}}\frac{\partial{z^{(l)}}}{\partial{W^{(l)}}}∂W(l)∂L(y,y^​)​=∂z(l)∂L(y,y^​)​∂W(l)∂z(l)​

定义$\frac{\partial{L(y,\hat y)}}{\partial{z^{(l)}}}$为误差项,它衡量的是对$z^{(l)}$对损失值的影响,进一步使用链式法则,可以得到:

δ(l)=∂L(y,y^)∂z(l)=∂a(l)∂z(l)×∂z(l+1)∂a(l)×∂L(y,y^)∂z(l+1)\delta^{(l)} = \frac{\partial{L(y,\hat y)}}{\partial{z^{(l)}}} = \frac{\partial{a^{(l)}}}{\partial{z^{(l)}}} \times \frac{\partial{z^{(l+1)}}}{\partial{a^{(l)}}} \times \frac{\partial{L^{(y,\hat y)}}}{\partial{z^{(l+1)}}}δ(l)=∂z(l)∂L(y,y^​)​=∂z(l)∂a(l)​×∂a(l)∂z(l+1)​×∂z(l+1)∂L(y,y^​)​

由于$z^{(l+1)} = W^{(l+1)}a^{(l)} + b^{(l)}$且$a^{(l)}=\sigma(z^{(l)})$进行变换可以得到:

δ(l)=∂L(y,y^)∂z(l)=∂a(l)∂z(l)×∂z(l+1)∂a(l)×∂L(y,y^)∂z(l+1)=σ′(z(l))⊙W(l+1)Tδ(l+1)\delta^{(l)} = \frac{\partial{L(y,\hat y)}}{\partial{z^{(l)}}} = \frac{\partial{a^{(l)}}}{\partial{z^{(l)}}} \times \frac{\partial{z^{(l+1)}}}{\partial{a^{(l)}}} \times \frac{\partial{L^{(y,\hat y)}}}{\partial{z^{(l+1)}}}=\sigma^{'}(z^{(l)})\odot W^{(l+1)^T}\delta^{(l+1)}δ(l)=∂z(l)∂L(y,y^​)​=∂z(l)∂a(l)​×∂a(l)∂z(l+1)​×∂z(l+1)∂L(y,y^​)​=σ′(z(l))⊙W(l+1)Tδ(l+1)

其中,$\sigma^{'}(z^{(l)})$是激活函数的导数,$\odot$表达哈达玛积,是一种对应元素相乘的二元运算符。也就是:

从上可以看出,第一层的误差与第${l+1}$层的误差有关,这就是反向传播的来源。

对于$\frac{\part{L(y,\hat y)}}{\part{W^{(l)}}} \in R^{(D_l\times D_{l-1})}$,有

∂L(y,y^)∂W(l)=∂L(y,y^)∂z(l)∂z(l)∂W(l)=(a(l−1)δ(l)T)T\frac{\partial{L(y,\hat y)}}{\partial{W^{(l)}}} = \frac{\partial{L(y,\hat y)}}{\partial{z^{(l)}}}\frac{\partial{z^{(l)}}}{\partial{W^{(l)}}}=(a^{(l-1)}\delta^{(l)^T})^T∂W(l)∂L(y,y^​)​=∂z(l)∂L(y,y^​)​∂W(l)∂z(l)​=(a(l−1)δ(l)T)T

偏置项$b^{(l)}$的导数:

梯度消失

对于深度神经网络来说,虽然反向传播能够高效地计算梯度,但是随着堆叠层数和模型参数规模的增加,也给模型优化带来一些严峻的问题。

从上面的式子中可以看出,第$l$层的误差是通过第$l+1$层的误差与两层之间权重的加权,再乘以激活函数的导数得到的,如果激活函数使用Sigmoid,它的导数为$σ'(x)=σ(x)(1–σ(x))$,由于$σ(x)\in(0,1)$,它的导数的最大值为$σ'(x)=0.25$,当层数增加时,最后一层的误差将在前面的层中快速衰减,这会导致靠近输入层的梯度值非常小,参数几乎无法进行有效的更新,在下一次前向传播时,由于前面层的参数无法有效地从数据中获得有价值的信息供后面的层使用,模型就难以进行有效的训练。这种现象称为梯度消失。

导致梯度消失的原因在于激活函数的饱和性,比如Sigmoid、Tanh等都会带来这种问题,它们在函数值趋近于上下边界时,梯度通常比较小,再与误差项相乘将变得更小,多次的反向传播将会使得梯度值不断减小。

因此现在的神经网络通常使用ReLU激活函数以及其变种。

Autograd:自动求导

PyTorch中,所有神经网络的核心是 autograd 包。先简单介绍一下这个包,然后训练第一个神经网络。

autograd 包为张量上的所有操作提供了自动求导机制。它是一个在运行时定义(define-by-run)的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的.

张量

torch.Tensor 是这个包的核心类。如果设置它的属性 .requires_grad 为 True,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性.

要阻止一个张量被跟踪历史,可以调用 .detach() 方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。

为了防止跟踪历史记录(和使用内存),可以将代码块包装在 with torch.no_grad(): 中。在评估模型时特别有用,因为模型可能具有 requires_grad = True 的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。

还有一个类对于autograd的实现非常重要:Function。

Tensor 和 Function 互相连接生成了一个无圈图(acyclic graph),它编码了完整的计算历史。每个张量都有一个 .grad_fn 属性,该属性引用了创建 Tensor 自身的Function(除非这个张量是用户手动创建的,即这个张量的 grad_fn 是 None )。

如果需要计算导数,可以在 Tensor 上调用 .backward()。如果 Tensor 是一个标量(即它包含一个元素的数据),则不需要为 backward() 指定任何参数,但是如果它有更多的元素,则需要指定一个 gradient 参数,该参数是形状匹配的张量。

import torch
import numpy as np
  • 创建一个张量并设置requires_grad=True用来追踪其计算历史

x = torch.ones(2,2,requires_grad=True)
x
  • 对这个张量做一次运算:

y = x + 2
y
  • 对y进行更多操作

z = y*y*3
out = z.mean()
z,out
  • .requires_grad_(...) 原地改变了现有张量的 requires_grad 标志。如果没有指定的话,默认输入的这个标志是 False。

a = torch.randn(2,2)
a = ((a*3)/(a-1))
print(a.requires_grad)
a.requires_grad_(True)
print(a.requires_grad)
b = (a*a).sum()
print(b.grad_fn)

梯度

现在开始进行反向传播,因为 out 是一个标量,因此 out.backward() 和out.backward(torch.tensor(1.))等价。

out.backward()

输出导数 d(out)/dx

x.grad

我们的得到的是一个数取值全部为4.5的矩阵。

如上可以得到,$o=\frac{1}{4}\sum_iz_i$,$z_i=3(x_i+2)^2$,因此,$\frac{\partial o}{\partial x_i}=\frac{3}{2}(x_i+2)$。

可以通过将代码块包装在 with torch.no_grad(): 中,来阻止autograd跟踪设置了 .requires_grad=True 的张量的历史记录。

print((x**2).requires_grad)
with torch.no_grad():
    print((x**2).requires_grad)
image-20210228103424582
image-20210125144530231
image-20210125144555667
image-20210125144657578
image-20210125144714008
image-20210125144820261
image-20210125145656102