
DistilBert:适用于海量中文的预训练精简BERT模型
5星
- 浏览量: 0
- 大小:None
- 文件类型:ZIP
简介:
DistilBert是一款针对大规模中文文本优化的轻量级预训练语言模型,基于BERT架构,通过深度蒸馏技术,在减少计算资源需求的同时保持高精度,广泛应用于自然语言处理任务。
一、DistilBert for Chinese 海量中文预训练蒸馏Bert模型
计划于12月16日发布。
拟发布内容:
1. 可下载的经过训练的蒸馏模型,用户可以直接使用或在自己的语料库上再次进行训练。
2. 使用DistilBert对三个ChineseGLUE(CLUE)任务进行微调的例子和代码。
3. 小模型基准测评结果,包括与albert_tiny、ernie等模型的性能比较。
全部评论 (0)
还没有任何评论哟~


