2020-10-19 21:48:57

This commit is contained in:
wizardforcel
2020-10-19 21:48:57 +08:00
parent 74f7d35aeb
commit 045dee5888
20 changed files with 73 additions and 73 deletions

View File

@@ -6,7 +6,7 @@
我们定义一个 Variable:
```
```py
import torch
from torch.autograd import Variable # torch 中 Variable 模块
@@ -35,7 +35,7 @@ Variable containing:
我们再对比一下 tensor 的计算和 variable 的计算.\
```
```py
t_out = torch.mean(tensor*tensor) # x^2
v_out = torch.mean(variable*variable) # x^2
print(t_out)
@@ -46,7 +46,7 @@ print(v_out) # 7.5
v_out = torch.mean(variable*variable) 就是在计算图中添加的一个计算步骤, 计算误差反向传递的时候有他一份功劳, 我们就来举个例子:
```
```py
v_out.backward() # 模拟 v_out 的误差反向传递
# 下面两步看不懂没关系, 只要知道 Variable 是计算图的一部分, 可以用来传递误差就好.
@@ -64,7 +64,7 @@ print(variable.grad) # 初始 Variable 的梯度
直接 print(variable) 只会输出 Variable 形式的数据, 在很多时候是用不了的(比如想要用 plt 画图), 所以我们要转换一下, 将它变成 tensor 形式.
```
```py
print(variable) # Variable 形式
"""
Variable containing: