From e1c1d463248fdd2254c8971730aedbd5f500858f Mon Sep 17 00:00:00 2001 From: Sun Junyi Date: Mon, 1 Jul 2013 12:43:33 +0800 Subject: [PATCH] Update README.md --- README.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/README.md b/README.md index d1813ef..9ae4c53 100644 --- a/README.md +++ b/README.md @@ -144,7 +144,7 @@ Output: * 实验结果:在4核3.4GHz Linux机器上,对金庸全集进行精确分词,获得了1MB/s的速度,是单进程版的3.3倍。 -功能 5) : Tokenize:返回词语在原文的起始位置 +功能 6) : Tokenize:返回词语在原文的起始位置 ============================================ * 注意,输入参数只接受unicode * 默认模式 @@ -181,7 +181,7 @@ word 有限公司 start: 6 end:10 ``` -功能 6) : ChineseAnalyzer for Whoosh搜索引擎 +功能 7) : ChineseAnalyzer for Whoosh搜索引擎 ============================================ * 引用: `from jieba.analyse import ChineseAnalyzer ` * 用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_whoosh.py