2018-10-11论文
BERT:双向理解语言
谷歌发布 BERT(基于 Transformer 的双向编码器表示),它双向阅读文本以更好地理解上下文。BERT 显著改善了谷歌搜索,并在几乎所有 NLP 基准测试上创下了新纪录。
参考资料
- BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
NAACL2019