一、前言

前面我们学习了前馈神经网络卷积神经网络,它们有一个特点,就是每次输出跟上一次结果没有关联。但在一个句子中,每个词的顺序搭配是存在一定联系的,这个时候我们就需要考虑上一次提取的特征对本次输出的影响。这就是我们今天要学的循环神经网络(RNN),也叫递归神经网络,RNN被广泛地应用于自然语言处理(NLP)等领域。

二、序列模型

我们来看一个例子:

空格里这个词最有可能是『我』,而不太可能是『小明』,甚至是『吃饭』。

这是由上下文推导出来的,这种输出与上下文相互关联的模型,叫做序列模型。

序列模型能够应用在许多领域,例如:

  • 语音识别
  • 音乐发生器
  • 情感分类
  • DNA序列分析
  • 机器翻译
  • 视频动作识别
  • 命名实体识别

三、不含序列关联的神经网络

深度学习 RNN循环神经网络原理与Pytorch正余弦值预测-LMLPHP
为简化描述,我们不考虑偏置 b b b,如上图所示是包含一个隐藏层的神经网络。 X X X表示输入、 O O O表示输出; U U U是输入层到隐藏层的权重矩阵, V V V是隐藏层到输出层的权重矩阵。

设隐藏层的激活函数为 f f f、输出层的激活函数为 g g g,则有:
H = f ( U X ) O = g ( V H ) H=f(UX) \\O=g(VH) H=f(UX)O=g(VH)

四、包含隐藏状态的卷积神经网络

隐藏层的作用,其实就是对输入进行特征值提取,比如卷积神经网络中的卷积层就是对图像边缘的提取。如果说上一次的特征,会对本次特征提取造成一定影响,那怎么表示呢?

我们引入权重参数 W W W H t − 1 H_{t-1} Ht1表示上次特征,用 W H t − 1 WH_{t-1} WHt1表示上次特征对本次的影响程度。那么就有本次特征 H t = f ( U X t + W H t − 1 ) H_t=f(UX_t+WH_{t-1}) Ht=f(UXt+WHt1)
本次特征的值不仅取决于本次输入 X t X_t Xt,还受上次特征 H t − 1 H_{t-1} Ht1的影响。

这就是RNN的算法思想,用下图表示:
深度学习 RNN循环神经网络原理与Pytorch正余弦值预测-LMLPHP

五、正余弦预测实战

import torch
import torch.nn as nn
import numpy as np
np.set_printoptions(suppress=True) #numpy不使用科学计数法

steps=1000   #迭代次数
learning_rate=0.01  #学习率
time_step=10    #步数大小
input_size=1    #输入特征数量
hidden_size=32  #隐藏层特征数量


class MyModel(nn.Module):
    
    def __init__(self):
        super().__init__()

        self.rnn=nn.RNN(
            input_size=input_size,
            hidden_size=hidden_size,
            num_layers=1,
            batch_first=True
        )
        self.out=nn.Linear(hidden_size, 1)

    def forward(self,x,h_state):
        r_out,h_state=self.rnn(x,h_state)

        outs = []
        for time_step in range(r_out.size(1)):    # 计算每个时间步的输出
            outs.append(self.out(r_out[:, time_step, :]))
        
        return torch.stack(outs, dim=1), h_state

plt_steps=[]
plt_loss=[]

h_state = None

model=MyModel()
#损失函数
cost=nn.MSELoss()
#迭代优化器
optmizer=torch.optim.SGD(model.parameters(),lr=learning_rate)

step_now,step_x,sin_y,cos_y=None,None,None,None 
for step in range(steps):
    step_now=step
    step_x=np.linspace(step*np.pi,(step+1)*np.pi,time_step,dtype=np.float32) #起始值、结束值、个数
    sin_y=np.sin(step_x)
    cos_y=np.cos(step_x)

    x = torch.from_numpy(sin_y[np.newaxis, :, np.newaxis])    # shape (batch, time_step, input_size)
    y = torch.from_numpy(cos_y[np.newaxis, :, np.newaxis])

    pre_y,h_state=model(x,h_state)

    h_state = h_state.data

    #计算损失值
    loss=cost(pre_y,y)

    #在反向传播前先把梯度清零
    optmizer.zero_grad()

    #反向传播,计算各参数对于损失loss的梯度
    loss.backward()

    #根据刚刚反向传播得到的梯度更新模型参数
    optmizer.step()

    plt_steps.append(step)
    plt_loss.append(loss.item())

    #打印损失值
    if step%100==0:
        print('step:',step,'loss:',loss.item())
    
#绘制迭代次数与损失函数的关系
import matplotlib.pyplot as plt
plt.plot(plt_steps,plt_loss)

运行结果:

step: 0 loss: 0.5253313779830933
step: 100 loss: 0.1194605678319931
step: 200 loss: 0.0004494489112403244
step: 300 loss: 0.0004530779551714659
step: 400 loss: 0.00045654349378310144
step: 500 loss: 0.00045824996777810156
step: 600 loss: 0.00045904534636065364
step: 700 loss: 0.0004583548288792372
step: 800 loss: 0.00045726861571893096
step: 900 loss: 0.00045428838348016143

深度学习 RNN循环神经网络原理与Pytorch正余弦值预测-LMLPHP
预测下一段数据结果:

step_x=np.linspace((step_now+1)*np.pi,(step_now+2)*np.pi,time_step,dtype=np.float32) #起始值、结束值、个数
sin_y=np.sin(step_x)
cos_y=np.cos(step_x)

x = torch.from_numpy(sin_y[np.newaxis, :, np.newaxis])    # shape (batch, time_step, input_size)
y = torch.from_numpy(cos_y[np.newaxis, :, np.newaxis])

pre_y,h_state=model(x,h_state)

plt.plot(step_x,sin_y,label='input (sin)')
plt.plot(step_x,cos_y,label='target (cos)')
plt.plot(step_x,pre_y.data.numpy().flatten(),label='pre_y')
plt.legend() #展示标签
plt.show()

运行结果:
深度学习 RNN循环神经网络原理与Pytorch正余弦值预测-LMLPHP

六、参考资料

零基础入门深度学习(5) - 循环神经网络
深度学习(五) - 序列模型
一文搞懂RNN(循环神经网络)基础篇
【Pytorch教程】:RNN 循环神经网络 (回归)

12-06 06:40