首页 > 其他 > 详细

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

时间:2019-07-17 00:09:17      阅读:114      评论:0      收藏:0      [点我收藏+]

摘要:

提出了一个新的语言表示模型(language representation), BERT: Bidirectional Encoder Representations from Transformers。不同于以往提出的语言表示模型,它在每一层的每个位置都能利用其左右两侧的信息用于学习,因此,它具有强大的表示能力,所以,BERT在预训练之后,只需要加一个简单的输出层,并在新结构上fine-tuned 就能获得 SOTA的结果。

引言

语言模型预训练在自然语言处理任务中占据着越来越重要的位置。当前有两种方法将预训练的特征表示用于具体的任务,分别是:1. feature based. 2. fine-tuning

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

原文:https://www.cnblogs.com/mata123/p/11198075.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!