首页 > 其他 > 详细

深度学习中的注意力模型

时间:2019-05-07 16:32:11      阅读:246      评论:0      收藏:0      [点我收藏+]

Encoder-Decoder框架

目前大多数注意力模型附着在Encoder-Decoder框架下,当然,其实注意力模型可以看作一种通用的思想,本身并不依赖于特定框架,这点需要注意。

抽象的文本处理领域的Encoder-Decoder框架:

技术分享图片

文本处理领域的Encoder-Decoder框架可以这么直观地去理解:可以把它看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。对于句子对<Source,Target>,我们的目标是给定输入句子Source,期待通过Encoder-Decoder框架来生成目标句子Target。

Source和Target分别由各自的单词序列构成:技术分享图片

Encoder顾名思义就是对输入句子Source进行编码,将输入句子通过非线性变换转化为中间语义表示C:

 技术分享图片

一般而言,文本处理和语音识别的Encoder部分通常采用RNN模型,图像处理的Encoder一般采用CNN模型。

 

 

 

 

 

 

 

 

 

 

参考:

https://zhuanlan.zhihu.com/p/37601161

https://github.com/Choco31415/Attention_Network_With_Keras

深度学习中的注意力模型

原文:https://www.cnblogs.com/ljygoodgoodstudydaydayup/p/10826187.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!