
RoBERTa-日本語:日语的BERT预训练模型
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
RoBERTa-日本語是一款针对日语优化的预训练语言模型,基于Facebook的RoBERTa架构。它在多项NLP任务中表现出色,适用于文本理解、生成等应用场景。
RoBERTa-日语是基于日文的预训练模型,它是BERT的一个改进版本。尽管其基本架构与原始的BERT相同,但学习方法有所不同。该项目提供了一个适用于TensorFlow 1.x 和2.x 的日本语版 RoBERTa(即改良后的 BERT)。
具体来说:
- 已发布了small和base两种型号的小型化模型。
- 小型模型于2020年12月6日公开,基础模型则在2021年1月4日发布。
使用说明如下:
从GitHub克隆代码
```
$ git clone https://github.com/tanreinama/RoBERTa-japanese
$ cd RoBERTa-japanese
```
下载并解压预训练的模型文件。
全部评论 (0)
还没有任何评论哟~


