
Chinese-BERT-wwm:汉语BERT的全面字掩蔽预训练(与English BERT-wwm系列模型相关)
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
Chinese-BERT-wwm是一种针对中文设计的预训练语言模型,采用全面字级掩码技术,借鉴了English BERT-wwm系列模型的成功经验。该模型在多项汉语自然语言处理任务中表现出色,极大提升了中文文本的理解和生成能力。
在自然语言处理领域中,预训练语言模型已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(Whole Word Masking)技术的中文预训练模型BERT-wwm以及相关其他技术模型:BERT-wwm-ext、RoBERTa-wwm-ext、RoBERTa-wwm-ext-large、RBT3和RBTL3。这些项目均以谷歌官方发布的BERT为基础。
我们还发布了MacBERT预训练模型,中文ELECTRA预训练模型,以及中文XLNet预训练模型等其他相关资源,并提供知识蒸馏工具TextBrewer的使用指南。
所有上述提到的模型现均已支持TensorFlow 2版本,请通过变压器库调用或下载。我们的论文已被录用为长文。
此外,在通用自然语言理解评论GLUE竞赛中,哈工大讯飞联合实验室取得了第一名的成绩。
全部评论 (0)
还没有任何评论哟~


