BERT与ERNIE
1. 前言本文讲解预训练Transformer模型常用的方法:BERT与ERNIE。本人全部文章请参见:博客文章导航目录本文归属于:NLP模型原理与应用系列前文:搭建Transformer模型2. BERTBERT(Bidirectional Encoder Representations from Transformers)用于预训练Transformer模型Encoder网络,可以大幅提升Transformer模型的准确率。BERT的核心思想如下:随机遮挡句子中一个或多个单词,让Enco