分词使用那些工具
分词可以使用一些专门的工具,如:
-
jieba(结巴分词):Python中常用的中文分词工具。
-
NLTK(Natural Language Toolkit):Python中常用的自然语言处理工具包,其中包含中文分词工具。
-
HanLP:Java中常用的中文分词工具,支持多种分词算法。
-
Stanford NLP:Java中常用的自然语言处理工具包,其中包含中文分词工具。
-
LTP(Language Technology Platform):中文信息处理平台,包含中文分词、词性标注、命名实体识别等功能。
-
THULAC(清华大学中文分词工具):基于深度学习的中文分词工具,具有高准确率和较快的速度。

原文地址: http://www.cveoy.top/t/topic/c1GT 著作权归作者所有。请勿转载和采集!