RNN( Recurrent Neural Network 循环(递归)神经网络) 跟人的大脑记忆差不多。我们的任何决定,想法都是根据我们之前已经学到的东西产生的。RNN通过反向传播和记忆机制,能够处理任意长度的序列,在架构上比前馈神经网络更符合生物神经网络的结构,它的产生也正是为了解决这类问题而应用而生的。今天本文介绍RNN的几种不同的结构,有1vsN,Nvs1,NvsM等结构。
输入只有一个\(X\),输出有多个\(y_1,y_2,...,y_t\)
这种1vsN结构的公式为:
\[
h_t=f(UX+Wh_{t-1}+b)
\]
\[
y_t=softmax(Vh_t+c)
\]
应用场景:
输入有多个\(x_1,x_2,...,x_t\),输出只有一个\(Y\)
这种1vsN结构的公式为:
\[
h_t=f(Ux_t+Wh_{t-1}+b)
\]
\[
Y=softmax(Vh_T+c)
\]
应用场景:
在NvsM里面我们又可以再细分,如果N=M那就是一一对应的RNN结构
输入有多个\(x_1,x_2,...,x_t\),输出有多个\(y_1,y_2,...,y_t\)
应用场景:
另一种是N!=M的RNN结构
输入有多个\(x_1,x_2,...,x_n\),输出有多个\(y_1,y_2,...,y_m\)
如下所示:
应用场景:
原文:https://www.cnblogs.com/huangyc/p/10366792.html