部分常用分词工具使用整理( 二 )

项目Github地址:jieba

安装:

pip install jieba

使用:

import jieba

jieba.initialize()

text = '化妆和服装'

words = jieba.cut(text)

words = list(words)

print(words)

2、HanLP(汉语言处理包)

HanLP是一系列模型与算法组成的NLP工具包 , 由大快搜索主导并完全开源 , 目标是普及自然语言处理在生产环境中的应用 。 HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点 。

项目Github地址:pyhanlp

安装:

pip install pyhanlp

推荐阅读