首页 > 其他 > 详细

经典文本翻译小结

时间:2020-02-05 14:28:14      阅读:72      评论:0      收藏:0      [点我收藏+]

 2014翻译论文

Sequence to Sequence Learning with Neural Networks

基本信息:2014 nips 6500+

目标公式:$ p(y_t|v, y_1, . . . , y_{ t−1}) $

参数:$y_t$是生成的翻译文本,$v$是表达输入文本的定长向量

模型架构:用多层LSTM将输入序列$A,B,C,<EOS>$生成$v$ , 而后再利用另一个LSTM生成翻译文本。

技术分享图片

 

 2015翻译论文

1.Neural Machine Translation by Jointly Learning to Align and Translate

基本信息:2015 ICLR  6900+

提出问题:encoder-decoder模型,对于越长的文本翻译效果越差

解决方案:decoder时期的每个$h_j$都和encoder部分所有$h_i$得到加权值$α_i$,而后再$α_i$乘以对应的$h_i$求和,得到新表示的$c_i$。以上方法能够有重点的关注和解码部分最相关的部分。

技术分享图片

 

 

2.Effective Approaches to Attention-based Neural Machine Translation

基本信息:2015 EMNLP 1800+

 技术分享图片技术分享图片

 

 

 2017翻译论文

1.convolutional sequence to sequence learning

基本信息:2017 arXiv 600+

技术分享图片

 

 

2.Attention Is All You Need

 参考:https://www.cnblogs.com/AntonioSu/p/12019534.html

 

经典文本翻译小结

原文:https://www.cnblogs.com/AntonioSu/p/12263328.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!