You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 
 
 
Go to file
yihua.huang 019353b41e update readme, markdown syntax ** 12 years ago
webmagic-core add uuid to spider 12 years ago
webmagic-plugin change author info 12 years ago
webmagic-samples add uuid to spider 12 years ago
.gitignore
.travis.yml invite travis 12 years ago
README.md update readme, markdown syntax ** 12 years ago
pom.xml fix pom 12 years ago

README.md

webmagic

Build Status

####一个网络爬虫工具包

webmagic的发起源于工作中的需要其定位是帮助开发者更便捷的开发一个垂直的网络爬虫。

webmagic的功能覆盖整个爬虫的生命周期(链接提取、页面下载、内容抽取、持久化)开发者可以便捷的使用xpath和正则表达式进行链接和内容的提取只需编写少量代码即可完成一个定制爬虫。

请注意

webmagic正处于开发阶段目前还没有稳定版本。欢迎开发者参与到webmagic的试用和修改中来。 如果只是想以外部jar包的方式引用webmagic并进行自己的业务开发建议你等待webmagic的第一个稳定版本。

###特色###

  • ####垂直爬虫#### webmagic着重于页面抽取的工作。开发者可以使用xpath和正则表达式进行链接和内容的提取支持链式API调用以及单复数转换。

      String content = page.getHtml().x("//div[@class='body']").r("这段话比较重要(.*)").toString();
    
  • ####嵌入式&无配置#### webmagic与其他Full-Stack的框架不同没有配置文件大部分功能都通过简单的API调用完成。webmagic以jar包的形式存在并且不依赖任何框架在程序可以随处进行调用。

    以下是爬取oschina博客的一段代码

      Spider.me().processor(new SimplePageProcessor("http://my.oschina.net/", "http://my.oschina.net/*/blog/*")).run();
    
  • ####可扩展#### 参考scrapy的设计webmagic将爬虫的扩展点分为Processor、Schedular、Downloader、Pipeline三个模块可以通过扩展这些接口实现强大的扩展功能。如可以通过多个Spider实现多线程抓取可以通过扩展Schedular实现断点续传乃至于分布式爬虫可以通过扩展Pipeline实现业务可定制的持久化功能。


###Get Started

webmagic定制的核心是PageProcessor接口。

例如我们要实现一个简单的通用爬虫SimplePageProcessor代码如下

public class SimplePageProcessor implements PageProcessor {

    private String urlPattern;

    private static final String UA = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_2) AppleWebKit/537.31 (KHTML, like Gecko) Chrome/26.0.1410.65 Safari/537.31";

    private Site site;

    public SimplePageProcessor(String startUrl, String urlPattern) {
        this.site = Site.me().setStartUrl(startUrl).
                setDomain(UrlUtils.getDomain(startUrl)).setUserAgent(UA);
        this.urlPattern = "("+urlPattern.replace(".","\\.").replace("*","[^\"'#]*")+")";

    }

    @Override
    public void process(Page page) {
        List<String> requests = page.getHtml().as().rs(urlPattern).toStrings();
        //调用page.addTargetRequests()方法添加待抓取链接
        page.addTargetRequests(requests);
        //xpath方式抽取
        page.putField("title", page.getHtml().x("//title"));
        //sc表示使用Readability技术抽取正文
        page.putField("content", page.getHtml().sc());
    }

    @Override
    public Site getSite() {
        //定义抽取站点的相关参数
        return site;
    }
}

调用这个爬虫的代码如下:

Spider.me().processor(new SimplePageProcessor("http://my.oschina.net/", "http://my.oschina.net/*/blog/*")).run();

示例

可参考作者博客使用webmagic抓取页面并保存为wordpress文件

协议

webmagic遵循Apache 2.0协议

致谢

webmagic的架构和设计参考了以下两个项目感谢以下两个项目的作者

python爬虫 scrapyhttps://github.com/scrapy/scrapy

Java爬虫 Spidermanhttps://gitcafe.com/laiweiwei/Spiderman