03-反向传播

回顾

线性模型:$\hat y=x*w$,其中$w$为权重,$x$为输入数据。

image-20210123164445655

随机梯度下降:

w=wαlossww=w-\alpha\frac{\partial loss}{\partial w}

其中,

lossnw=2xn(xnwyn)\frac{\partial loss_n}{\partial w} = 2\cdot x_n\cdot (x_n\cdot w-y_n)

对于复杂模型,考虑如何计算梯度?

image-20210123164725244

计算图

一个两层的神经网络:

y^=W2(W1X+b1)+b2\hat y = W_2(W_1\cdot X+b_1)+b_2
image-20210123165318495

其中,$W_1$与$X$通过矩阵乘法得到隐藏层$H^{(1)}$。

image-20210123165645694

$H^{(1)}$和$b_1$通过加法运算得到新的一个$X$。

image-20210123165811774

神经网络的第一层,就这样计算完毕了,神经网络的第二层和运行过程和第一层一样。

image-20210123170028670

关于两层神经网络的问题

将各个层的计算过程进行统一,可以得到如下模型:

image-20210123171030329

如上可知,无论神经网络有多少层,都是线性的,实际只是做了一层计算。

于是为了解决这个问题,加一个非线性的激活函数,比如$sigmoid$函数,在每个线性模型后得到的线性数据,进行非线性变换。

image-20210123171703072

函数的复合和链式法则

矩阵书籍:地址

image-20210123172254736
f(g(x))x=f(g(x))g(x)g(x)x\frac{\partial f(g(x))}{\partial x} = \frac{\partial f(g(x))}{\partial g(x)}\cdot \frac{\partial g(x)}{\partial x}
  1. 创建计算图$(Forward)$

image-20210123172738099
  1. 局部梯度

image-20210123190454655
  1. 给定连续节点的梯度

image-20210123212343416
  1. 用链式法则计算梯度

image-20210123212422203
image-20210123212941634

Example:$f=x\cdot w,x=2,w=3$

  • forward

image-20210123213010427
  • backward

image-20210123213058446
image-20210123213417842
image-20210123213515866

线性模型的计算图

image-20210123214445592

其中,残差项$r=\hat y-y$

Tensor in Pytorch

image-20210124213406916

PyTorch中,张量是构造动态计算图的重要组成部分。它包含datagrad,分别存储节点的值和梯度的损失。

用pytorch实现线性模型

如果需要自动梯度机制,则张量的元素变量requires_grad必须设置为true

import torch
import numpy as np

# 数据样本
x_data = np.array([
    [1.0,2.0,3.0]
])
y_data = np.array([
    2.0,4.0,6.0
])

# 权重
w = torch.Tensor([1.0])
w.requires_grad = True

def loss(x,y,w):
    y_pred = forward(x,w)
    return (y-y_pred)**2
    
def forward(x,w):
    return x*w
  • 定义线性模型

y^=x×w\hat y = x \times w
  • 实现代码

print("predict(before traning)",4,forward(4,w).item())

for epoch in range(100):
    for x,y in zip(x_data,y_data):
        l = loss(x,y,w)
        l.backward()
        print("\tgrad:",x,y,w.grad.item())
        w.data = w.data - 0.01*w.grad.data
        w.grad.data.zero_() # 清空梯度
    print("progress:",epoch,l.item())
print("predict (after training)",4,forward(4,w).item())
  • 前向传播

image-20210125175353333
  • 反向传播

image-20210125175406105

最后更新于

这有帮助吗?