04-pytorch入门
最后更新于
这有帮助吗?
最后更新于
这有帮助吗?
官网:
根据电脑的配置,自行选择,然后粘贴复制如下命令,进行安装:
PyTorch
是一个基于python
的科学计算包,主要针对两类人群:
作为NumPy
的替代品,可以利用$GPU$的性能进行计算
作为一个高灵活性、速度快的深度学习平台
Tensor
(张量)类似于NumPy
的ndarray
,但还可以在$GPU$上使用来加速计算。
创建一个未初始化的$5\times 3$矩阵
创建一个随机矩阵
创建一个全为$0$,且数据类型为$long$的矩阵
将数据转化为张量
根据已有的$tensor$建立新的$tensor$,除非用户提供新的值,否则这些方法将重用输入张量的属性
获取张量的形状
注意,torch.Size
本质上还是tuple
,所以支持tuple
的一切操作。
一种运算有多种语法。在下面的示例中,演示加法运算。
加法:形式一
加法:形式二
给定一个输出张量作为参数
原地进行运算
任何一个in-place
改变张量的操作后面都固定一个_
。例如x.copy_(y)
、x.t_()
将更改x
也可以使用像标准的NumPy
一样的各种索引操作:
改变形状:如果想改变形状,可以使用torch.view
如果是仅包含一个元素的tensor
,可以使用.item()
来得到对应的python
数值
numpy
数组将一个Torch
张量转换为一个NumPy
数组是轻而易举的事情,反之亦然。
Torch
张量和NumPy
数组将共享它们的底层内存位置,因此当一个改变时,另外也会改变。
torch
的Tensor
转化为NumPy
数组看NumPy数组是如何改变里面的值的:
NumPy
数组转化为Torch
张量看改变NumPy
数组是如何自动改变Torch
张量的:
CPU
上的所有张量(CharTensor
除外)都支持与Numpy
的相互转换。
张量可以使用.to
方法移动到任何设备(device
)上:
PyTorch
中,所有神经网络的核心是 autograd
包。先简单介绍一下这个包,然后训练第一个神经网络。
autograd
包为张量上的所有操作提供了自动求导机制。它是一个在运行时定义(define-by-run)的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的.
torch.Tensor
是这个包的核心类。如果设置它的属性 .requires_grad
为 True
,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward()
,来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad
属性.
要阻止一个张量被跟踪历史,可以调用 .detach()
方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。
为了防止跟踪历史记录(和使用内存),可以将代码块包装在 with torch.no_grad():
中。在评估模型时特别有用,因为模型可能具有 requires_grad = True
的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。
还有一个类对于autograd
的实现非常重要:Function
。
Tensor
和 Function
互相连接生成了一个无圈图(acyclic graph),它编码了完整的计算历史。每个张量都有一个 .grad_fn
属性,该属性引用了创建 Tensor
自身的Function
(除非这个张量是用户手动创建的,即这个张量的 grad_fn
是 None
)。
如果需要计算导数,可以在 Tensor
上调用 .backward()
。如果 Tensor
是一个标量(即它包含一个元素的数据),则不需要为 backward()
指定任何参数,但是如果它有更多的元素,则需要指定一个 gradient
参数,该参数是形状匹配的张量。
创建一个张量并设置requires_grad=True用来追踪其计算历史
对这个张量做一次运算:
对y进行更多操作
.requires_grad_(...)
原地改变了现有张量的 requires_grad
标志。如果没有指定的话,默认输入的这个标志是 False
。
现在开始进行反向传播,因为 out
是一个标量,因此 out.backward()
和out.backward(torch.tensor(1.))
等价。
输出导数 d(out)/dx
我们的得到的是一个数取值全部为4.5
的矩阵。
如上可以得到,$o=\frac{1}{4}\sum_iz_i$,$z_i=3(x_i+2)^2$,因此,$\frac{\partial o}{\partial x_i}=\frac{3}{2}(x_i+2)$。
可以通过将代码块包装在 with torch.no_grad():
中,来阻止autograd跟踪设置了 .requires_grad=True
的张量的历史记录。
超过100种tensor的运算操作,包括转置,索引,切片,数学运算, 线性代数,随机数等,具体访问。