
维基百科中文分词语料库
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
维基百科中文分词语料库是由社区维护的大规模高质量汉语文本数据集,用于训练和评估自然语言处理任务中的中文分词技术。
我使用自己整理的文本数据来训练word2vec模型。这些文本已经进行了分词处理,并且过滤了大部分特殊字符。总共包含3273626个段落,每个段落包括多个句子。经过处理后的语料库大小为1.1G。由于文件较大,可以通过百度网盘下载地址获取数据(此处省略具体链接)。
全部评论 (0)
还没有任何评论哟~


