部分常用分词工具使用整理( 三 )

使用:

import pyhanlp

text = '化妆和服装'

words = [

for term in pyhanlp.HanLP.segment(text):

words.append(term.word)

print(words)

3、SnowNLP(中文的类库)

SnowNLP是一个python写的类库 , 可以方便的处理中文文本内容 , 是受到了TextBlob的启发而写的 , 由于现在大部分的自然语言处理库基本都是针对英文的 , 于是写了一个方便处理中文的类库 , 并且和TextBlob不同的是 , 这里没有用NLTK , 所有的算法都是自己实现的 , 并且自带了一些训练好的字典 。

项目Github地址:snownlp

安装:

pip install snownlp

使用:

import snownlp

推荐阅读