部分常用分词工具使用整理( 四 )

text = '化妆和服装'

words = snownlp.SnowNLP(text).words

print(words)

4、FoolNLTK(中文处理工具包)

可能不是最快的开源中文分词 , 但很可能是最准的开源中文分词 。

项目Github地址:FoolNLTK

安装:

pip install foolnltk

使用:

import fool

text = '化妆和服装'

words = fool.cut(text)

print(words)

5、Jiagu(甲骨NLP)

基于BiLSTM模型 , 使用大规模语料训练而成 。 将提供中文分词、词性标注、命名实体识别、关键词抽取、文本摘要、新词发现等常用自然语言处理功能 。 参考了各大工具优缺点制作 , 将Jiagu回馈给大家 。

推荐阅读