You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 
Go to file
fxsjy d2bee13d9d add setup.py 13 years ago
jieba first commit 13 years ago
test add setup.py 13 years ago
.gitattributes first commit 13 years ago
.gitignore first commit 13 years ago
README.md update doc 13 years ago
setup.py add setup.py 13 years ago

README.md

jieba

"结巴"中文分词做最好的Python中文分词组件

Feature

  • 支持两种分词模式:
  • 1默认模式试图将句子最精确地切开适合文本分析
  • 2全模式把句子中所有的可以成词的词语都扫描出来适合搜索引擎。

Usage

  • 将jieba目录放置于当前目录或者site-packages目录
  • 通过import jieba 来引用 第一次import时需要构建Trie树需要几秒时间

Algorithm

  • 基于Trie树结构实现高效的词图扫描生成句子中汉字构成的有向无环图DAG)
  • 采用了记忆化搜索实现最大概率路径的计算, 找出基于词频的最大切分组合
  • 对于未登录词采用了基于汉字位置概率的模型使用了Viterbi算法

代码示例

#encoding=utf-8
import jieba

seg_list = jieba.cut("我来到北京清华大学",cut_all=True)
print "Full Mode:", "/ ".join(seg_list) #全模式

seg_list = jieba.cut("我来到北京清华大学",cut_all=False)
print "Default Mode:", "/ ".join(seg_list) #默认模式

seg_list = jieba.cut("他来到了网易杭研大厦")
print ", ".join(seg_list)

Output:

Full Mode: 我/ 来/ 来到/ 到/ 北/ 北京/ 京/ 清/ 清华/ 清华大学/ 华/ 华大/ 大/ 大学/ 学

Default Mode: 我/ 来到/ 北京/ 清华大学

他, 来到, 了, 网易, 杭研, 大厦    (此处“杭研”并没有在词典中但是也被Viterbi算法识别出来了)

Performance

  • 1.5 MB / Second in Full Mode
  • 200 KB / Second in Default Mode
  • Test Env: Intel(R) Core(TM) i7-2600 CPU @ 3.4GHz;《围城》.txt