
蒙古Bert模型:预训练的Mongolian-BERT
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本文介绍了蒙古语BERT模型的开发过程和特点,该模型通过预训练技术显著提升了蒙古语言处理任务中的性能表现。
蒙古BERT型号该存储库包含由特定团队训练的经过预训练的蒙古模型。特别感谢提供了5个TPU资源支持。此项目基于一些开源项目进行开发,并使用楷模词汇量为32000的文字标记器。
您可以利用蒙面语言模型笔记本测试已预训练模型预测蒙语单词的能力如何。
对于BERT-Base和 BERT-Large,我们提供两种格式的版本:未装箱的TensorFlow检查点和PyTorch模型以及HuggingFace盒装的BERT-Base。您可以通过下载相应文件进行评估研究。
在经过400万步训练后,我们的模型达到了以下效果指标:
- 损失值(loss)为1.3476765
- 掩码语言准确性(masked_lm_accuracy)为 0.7069192
- 掩码损失 (masked_lm_loss):1.2822781
- 下一句准确率(next_sentence_a):
这些数据表明模型具有良好的训练效果。
全部评论 (0)
还没有任何评论哟~


