diff --git a/en_docs/README.md b/en_docs/README.md
index b8e30c6b..e391601e 100644
--- a/en_docs/README.md
+++ b/en_docs/README.md
@@ -1,5 +1,7 @@
webmagic
---
+[Readme in Chinese](https://github.com/code4craft/webmagic/tree/master/zh_docs)
+
[](https://travis-ci.org/code4craft/webmagic)
>A crawler framework. It covers the whole lifecycle of crawler: downloading, url management, content extraction and persistent. It can simply the development of a specific crawler.
@@ -8,9 +10,11 @@ webmagic
* Simple core with high flexibility.
* Simple API for html extracting.
+* Annotation with POJO to customize a crawler, no configuration.
* Multi-thread and Distribution support.
* Easy to be integrated.
+
## Install:
Clone the repo and build:
@@ -95,4 +99,4 @@ There are some samples in `webmagic-samples` package.
### Lisence:
-Lisenced under [Apache 2.0 lisence](http://opensource.org/licenses/Apache-2.0)
\ No newline at end of file
+Lisenced under [Apache 2.0 lisence](http://opensource.org/licenses/Apache-2.0)
diff --git a/zh_docs/README.md b/zh_docs/README.md
new file mode 100644
index 00000000..31eb2ba9
--- /dev/null
+++ b/zh_docs/README.md
@@ -0,0 +1,160 @@
+webmagic
+---------
+[](https://travis-ci.org/code4craft/webmagic)
+
+[Readme in English](https://github.com/code4craft/webmagic/tree/master/en_docs)
+
+>webmagic是一个开源的Java垂直爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的核心非常简单,但是覆盖爬虫的整个流程,也是很好的学习爬虫开发的材料。作者曾经在前公司进行过一年的垂直爬虫的开发,webmagic就是为了解决爬虫开发的一些重复劳动而产生的框架。
+
+>web爬虫是一种技术,webmagic致力于将这种技术的实现成本降低,但是出于对资源提供者的尊重,webmagic不会做反封锁的事情,包括:验证码破解、代理切换、自动登录等。
+
+webmagic的主要特色:
+
+* 完全模块化的设计,强大的可扩展性。
+* 核心简单但是涵盖爬虫的全部流程,灵活而强大,也是学习爬虫入门的好材料。
+* 提供丰富的抽取页面API。
+* 无配置,但是可通过POJO+注解形式实现一个爬虫。
+* 支持多线程。
+* 支持分布式。
+* 支持爬取js动态渲染的页面。
+* 无框架依赖,可以灵活的嵌入到项目中去。
+
+webmagic的架构和设计参考了以下两个项目,感谢以下两个项目的作者:
+
+python爬虫 **scrapy** [https://github.com/scrapy/scrapy](https://github.com/scrapy/scrapy)
+
+Java爬虫 **Spiderman** [https://gitcafe.com/laiweiwei/Spiderman](https://gitcafe.com/laiweiwei/Spiderman)
+
+## 快速开始
+
+### 使用maven
+
+webmagic使用maven管理依赖,你可以直接下载webmagic源码进行编译:
+
+ git clone https://github.com/code4craft/webmagic.git
+ cd webmagic
+ mvn clean install
+
+安装后,在项目中添加对应的依赖即可使用webmagic:
+
+
+ us.codecraft
+ webmagic-core
+ 0.2.0
+
+
+ us.codecraft
+ webmagic-extension
+ 0.2.0
+
+
+#### 项目结构
+
+webmagic主要包括两个包:
+
+* **webmagic-core**
+
+ webmagic核心部分,只包含爬虫基本模块和基本抽取器。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。
+
+* **webmagic-extension**
+
+ webmagic的扩展模块,提供一些更方便的编写爬虫的工具。包括注解格式定义爬虫、JSON、分布式等支持。
+
+webmagic还包含两个可用的扩展包,因为这两个包都依赖了比较重量级的工具,所以从主要包中抽离出来:
+
+* **webmagic-saxon**
+
+ webmagic与Saxon结合的模块。Saxon是一个XPath、XSLT的解析工具,webmagic依赖Saxon来进行XPath2.0语法解析支持。
+
+* **webmagic-selenium**
+
+ webmagic与Selenium结合的模块。Selenium是一个模拟浏览器进行页面渲染的工具,webmagic依赖Selenium进行动态页面的抓取。
+
+在项目中,你可以根据需要依赖不同的包。
+
+### 不使用maven
+
+不使用maven的用户,可以下载这个二进制打包版本(感谢[oschina](http://www.oschina.net/)):
+
+ git clone http://git.oschina.net/flashsword20/webmagic-bin.git
+
+在**bin/lib**目录下,有项目依赖的所有jar包,直接在IDE里import即可。
+
+### 第一个爬虫
+
+#### 定制PageProcessor
+
+PageProcessor是webmagic-core的一部分,定制一个PageProcessor即可实现自己的爬虫逻辑。以下是抓取osc博客的一段代码:
+
+ public class OschinaBlogPageProcesser implements PageProcessor {
+
+ private Site site = Site.me().setDomain("my.oschina.net")
+ .addStartUrl("http://my.oschina.net/flashsword/blog");
+
+ @Override
+ public void process(Page page) {
+ List links = page.getHtml().links().regex("http://my\\.oschina\\.net/flashsword/blog/\\d+").all();
+ page.addTargetRequests(links);
+ page.putField("title", page.getHtml().xpath("//div[@class='BlogEntity']/div[@class='BlogTitle']/h1").toString());
+ page.putField("content", page.getHtml().$("div.content").toString());
+ page.putField("tags",page.getHtml().xpath("//div[@class='BlogTags']/a/text()").all());
+ }
+
+ @Override
+ public Site getSite() {
+ return site;
+
+ }
+
+ public static void main(String[] args) {
+ Spider.create(new OschinaBlogPageProcesser())
+ .pipeline(new ConsolePipeline()).run();
+ }
+ }
+
+这里通过page.addTargetRequests()方法来增加要抓取的URL,并通过page.putField()来保存抽取结果。page.getHtml().xpath()则是按照某个规则对结果进行抽取,这里抽取支持链式调用。调用结束后,toString()表示转化为单个String,all()则转化为一个String列表。
+
+Spider是爬虫的入口类。Pipeline是结果输出和持久化的接口,这里ConsolePipeline表示结果输出到控制台。
+
+执行这个main方法,即可在控制台看到抓取结果。webmagic默认有3秒抓取间隔,请耐心等待。
+
+#### 使用注解
+
+webmagic-extension包括了注解方式编写爬虫的方法,只需基于一个POJO增加注解即可完成一个爬虫。以下仍然是抓取oschina博客的一段代码,功能与OschinaBlogPageProcesser完全相同:
+
+ @TargetUrl("http://my.oschina.net/flashsword/blog/\\d+")
+ public class OschinaBlog {
+
+ @ExtractBy("//title")
+ private String title;
+
+ @ExtractBy(value = "div.BlogContent",type = ExtractBy.Type.Css)
+ private String content;
+
+ @ExtractBy(value = "//div[@class='BlogTags']/a/text()", multi = true)
+ private List tags;
+
+ public static void main(String[] args) {
+ OOSpider.create(
+ Site.me().addStartUrl("http://my.oschina.net/flashsword/blog"),
+ new ConsolePageModelPipeline(), OschinaBlog.class).run();
+ }
+ }
+
+这个例子定义了一个Model类,Model类的字段'title'、'content'、'tags'均为要抽取的属性。这个类在Pipeline里是可以复用的。
+
+### 详细文档
+
+见[webmagic manual.md](https://github.com/code4craft/webmagic/blob/master/webmagic%20manual.md)。
+
+### 示例
+
+webmagic-samples目录里有一些定制PageProcessor以抽取不同站点的例子。
+
+作者还有一个使用webmagic进行抽取并持久化到数据库的项目[JobHunter](http://git.oschina.net/flashsword20/jobhunter)。这个项目整合了Spring,自定义了Pipeline,使用mybatis进行数据持久化。
+
+### 协议
+
+webmagic遵循[Apache 2.0协议](http://opensource.org/licenses/Apache-2.0)
+
+