mirror of
https://github.com/apachecn/ailearning.git
synced 2026-04-24 02:23:45 +08:00
2020-10-19 21:48:57
This commit is contained in:
@@ -8,7 +8,7 @@
|
||||
|
||||
我们创建一些假数据来模拟真实的情况. 比如两个二次分布的数据, 不过他们的均值都不一样.
|
||||
|
||||
```
|
||||
```py
|
||||
import torch
|
||||
from torch.autograd import Variable
|
||||
import matplotlib.pyplot as plt
|
||||
@@ -39,7 +39,7 @@ plt.show()
|
||||
|
||||
建立一个神经网络我们可以直接运用 torch 中的体系. 先定义所有的层属性( __init__() ), 然后再一层层搭建( forward(x) )层于层的关系链接. 这个和我们在前面 regression 的时候的神经网络基本没差. 建立关系的时候, 我们会用到激励函数.
|
||||
|
||||
```
|
||||
```py
|
||||
import torch
|
||||
import torch.nn.functional as F # 激励函数都在这
|
||||
|
||||
@@ -70,7 +70,7 @@ Net (
|
||||
|
||||
训练的步骤很简单, 如下:
|
||||
|
||||
```
|
||||
```py
|
||||
# optimizer 是训练的工具
|
||||
optimizer = torch.optim.SGD(net.parameters(), lr=0.02) # 传入 net 的所有参数, 学习率
|
||||
# 算误差的时候, 注意真实值!不是! one-hot 形式的, 而是1D Tensor, (batch,)
|
||||
@@ -91,7 +91,7 @@ for t in range(100):
|
||||
|
||||
为了可视化整个训练的过程, 更好的理解是如何训练, 我们如下操作:
|
||||
|
||||
```
|
||||
```py
|
||||
import matplotlib.pyplot as plt
|
||||
|
||||
plt.ion() # 画图
|
||||
|
||||
Reference in New Issue
Block a user