
Python中各大中文分词工具的性能评估
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本文对Python环境下常用的中文分词工具进行了全面评测,旨在为开发者提供选择最适合项目需求的分词库依据。
jieba(结巴分词)、HanLP(汉语言处理包)、SnowNLP(中文的类库)以及FoolNLTK(中文处理工具包)都是免费使用的;Jiagu(甲骨NLP)与pyltp(哈工大语言云)同样提供免费服务。而THULAC(清华中文词法分析工具包)和NLPIR(汉语分词系统),则需要付费才能商用。
全部评论 (0)
还没有任何评论哟~


