
BERT多任务学习:应用于多任务环境的BERT模型
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本文探讨了在多任务环境中应用预训练语言模型BERT的方法和技术,通过优化其多任务学习能力以提升各种自然语言处理任务的表现。
从0.4.0版本开始,tf版本必须大于等于2.1。安装方法为:pip install bert-multitask-learning。
这个项目使用变压器(基于拥抱面部变压器)进行多模式多任务学习。为什么需要它呢?因为在原始的BERT代码中,多任务学习或多GPU训练都不可行,并且该项目最初是为了命名实体识别(NER),而在原始BERT代码中没有有效的脚本支持这一功能。
总之,与原始bert仓库相比,此项目具有以下改进:
- 多模式多任务学习:这是重写大部分代码的主要原因。
- 支持多GPU训练
- 序列标记(例如NER)和Encoder-Decoder Seq2Seq(带变压器解码器)。
全部评论 (0)
还没有任何评论哟~


