0x00 前言
网络爬虫(Web crawler),是一种“自动化浏览网络”的程序,或者说是一种网络机器人。它们被广泛用于互联网搜索引擎或其他类似网站,以获取或更新这些网站的内容和检索方式。它们可以自动采集所有其能够访问到的页面内容,以便程序做下一步的处理。
在WEB2.0时代,动态网页盛行起来。那么爬虫就应该能在页面内爬到这些有javascript生成的链接。当然动态解析页面只是爬虫的一个技术点。下面,我将按照如下顺序分享下面的这些内容的一些个人经验(编程语言为Python)。
1,爬虫架构。
2,页面下载与解析。
3,URL去重方法。
4,URL相似性算法。
5,并发操作。
6,数据存储
7,动态爬虫源码分享。
8,参考文章
0x01 爬虫架构
谈到爬虫架构,不得不提的是Scrapy的爬虫架构。Scrapy,是Python开发的一个快速,高层次的爬虫框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便的修改。它也提供了多种类型爬虫的基类,如BaseSpider、sitemap爬虫等。
上图是Scrapy的架构图,绿线是数据流向,首先从初始URL 开始,Scheduler 会将其交给 Downloader 进行下载,下载之后会交给 Spider 进行分析,需要保存的数据则会被送到Item Pipeline,那是对数据进行后期处理。另外,在数据流动的通道里还可以安装各种中间件,进行必要的处理。 因此在开发爬虫的时候,最好也先规划好各种模块。我的做法是单独规划下载模块,爬行模块,调度模块,数据存储模块。
0x02 页面下载与解析
页面下载
页面下载分为静态和动态两种下载方式。
传统爬虫利用的是静态下载方式,静态下载的优势是下载过程快,但是页面只是一个枯燥的html,因此页面链接分析中获取的只是< a >标签的href属性或者高手可以自己分析js,form之类的标签捕获一些链接。在python中可以利用urllib2模块或requests模块实现功能。 动态爬虫在web2.0时代则有特殊的优势,由于网页会使用javascript处理,网页内容通过Ajax异步获取。所以,动态爬虫需要分析经过javascript处理和ajax获取内容后的页面。目前简单的解决方法是通过基于webkit的模块直接处理。PYQT4、Splinter和Selenium这三个模块都可以达到目的。对于爬虫而言,浏览器界面是不需要的,因此使用一个headless browser是非常划算的,HtmlUnit和phantomjs都是可以使用的headless browser。
以上这段代码是访问新浪网主站。通过对比静态抓取页面和动态抓取页面的长度和对比静态抓取页面和动态抓取页面内抓取的链接个数。
在静态抓取中,页面的长度是563838,页面内抓取的链接数量只有166个。而在动态抓取中,页面的长度增长到了695991,而链接数达到了1422,有了近10倍的提升。
抓链接表达式
正则:re.compile("href=\"([^\"]*)\"")
Xpath:xpath('//*[@href]')
页面解析
页面解析是实现抓取页面内链接和抓取特定数据的模块,页面解析主要是对字符串的处理,而html是一种特殊的字符串,在Python中re、beautifulsoup、HTMLParser、lxml等模块都可以解决问题。对于链接,主要抓取a标签下的href属性,还有其他一些标签的src属性。
0x03 URL去重
URL去重是爬虫运行中一项关键的步骤,由于运行中的爬虫主要阻塞在网络交互中,因此避免重复的网络交互至关重要。爬虫一般会将待抓取的URL放在一个队列中,从抓取后的网页中提取到新的URL,在他们被放入队列之前,首先要确定这些新的URL没有被抓取过,如果之前已经抓取过了,就不再放入队列了。
Hash表
利用hash表做去重操作一般是最容易想到的方法,因为hash表查询的时间复杂度是O(1),而且在hash表足够大的情况下,hash冲突的概率就变得很小,因此URL是否重复的判断准确性就非常高。利用hash表去重的这个做法是一个比较简单的解决方法。但是普通hash表也有明显的缺陷,在考虑内存的情况下,使用一张大的hash表是不妥的。Python中可以使用字典这一数据结构。
URL压缩
如果hash表中,当每个节点储存的是一个str形式的具体URL,是非常占用内存的,如果把这个URL进行压缩成一个int型变量,内存占用程度上便有了3倍以上的缩小。因此可以利用Python的hashlib模块来进行URL压缩。 思路:把hash表的节点的数据结构设置为集合,集合内储存压缩后的URL。
Bloom Filter
Bloom Filter是通过极少的错误换取了存储空间的极大节省。Bloom Filter 是通过一组k 个定义在n 个输入key 上的Hash Function,将上述n 个key 映射到m 位上的数据容器。
上图很清楚的说明了Bloom Filter的优势,在可控的容器长度内,所有hash函数对同一个元素计算的hash值都为1时,就判断这个元素存在。 Python中hashlib,自带多种hash函数,有MD5,sha1,sha224,sha256,sha384,sha512。代码中还可以进行加盐处理,还是很方便的。 Bloom Filter也会产生冲突的情况,具体内容查看文章结尾的参考文章。
在Python编程过程中,可以使用jaybaird提供的BloomFilter接口,或者自己造轮子。
小细节
有个小细节,在建立hash表的时候选择容器很重要。hash表占用空间太大是个很不爽的问题,因此针对爬虫去重,下列方法可以解决一些问题。
上面这段代码简单验证了生成容器的运行时间。
由上图可以看出,建立一个长度为1亿的容器时,选择list容器程序的运行时间花费了7.2s,而选择字符串作为容器时,才花费了0.2s的运行时间。
接下来看看内存的占用情况。
如果建立1亿的列表占用了794660k内存。
而建立1亿长度的字符串却占用了109720k内存,空间占用大约减少了700000k。
0x04 URL相似性
初级算法
对于URL相似性,我只是实践一个非常简单的方法。
在保证不进行重复爬去的情况下,还需要对类似的URL进行判断。我采用的是sponge和ly5066113提供的思路。具体资料在参考文章里。
下列是一组可以判断为相似的URL组
http://auto.sohu.com/7/0903/70/column213117075.shtml
http://auto.sohu.com/7/0903/95/column212969565.shtml
http://auto.sohu.com/7/0903/96/column212969687.shtml
http://auto.sohu.com/7/1103/61/column216206148.shtml
http://auto.sohu.com/s2007/0155/s254359851/index1.shtml
http://auto.sohu.com/s2007/5730/s249066842/index2.shtml
http://auto.sohu.com/s2007/5730/s249067138/index3.shtml
http://auto.sohu.com/s2007/5730/s249067983/index4.shtml
按照预期,以上URL归并后应该为
http://auto.sohu.com/7/0903/70/column213117075.shtml
http://auto.sohu.com/s2007/0155/s254359851/index1.shtml
思路如下,需要提取如下特征
1,host字符串
2,目录深度(以’/’分割)
3,尾页特征
具体算法
算法本身很菜,各位一看就能懂。
实际效果:
上图显示了把8个不一样的url,算出了2个值。通过实践,在一张千万级的hash表中,冲突的情况是可以接受的。
0x05 并发操作
Python中的并发操作主要涉及的模型有:多线程模型、多进程模型、协程模型。Elias专门写了一篇文章,来比较常用的几种模型并发方案的性能。对于爬虫本身来说,限制爬虫速度主要来自目标服务器的响应速度,因此选择一个控制起来顺手的模块才是对的。
多线程模型
多线程模型,是最容易上手的,Python中自带的threading模块能很好的实现并发需求,配合Queue模块来实现共享数据。
多进程模型
多进程模型和多线程模型类似,multiprocessing模块中也有类似的Queue模块来实现数据共享。在linux中,用户态的进程可以利用多核心的优势,因此在多核背景下,能解决爬虫的并发问题。
协程模型
协程模型,在Elias的文章中,基于greenlet实现的协程程序的性能仅次于Stackless Python,大致比Stackless Python慢一倍,比其他方案快接近一个数量级。因此基于gevent(封装了greenlet)的并发程序会有很好的性能优势。
具体说明下gevent(非阻塞异步IO)。,“Gevent是一种基于协程的Python网络库,它用到Greenlet提供的,封装了libevent事件循环的高层同步API。”
从实际的编程效果来看,协程模型确实表现非常好,运行结果的可控性明显强了不少, gevent库的封装易用性极强。
0x06 数据存储
数据存储本身设计的技术就非常多,作为小菜不敢乱说,但是工作还是有一些小经验是可以分享的。
前提:使用关系数据库,测试中选择的是mysql,其他类似sqlite,SqlServer思路上没有区别。
当我们进行数据存储时,目的就是减少与数据库的交互操作,这样可以提高性能。通常情况下,每当一个URL节点被读取,就进行一次数据存储,对于这样的逻辑进行无限循环。其实这样的性能体验是非常差的,存储速度非常慢。
进阶做法,为了减少与数据库的交互次数,每次与数据库交互从之前传送1个节点变成传送10个节点,到传送100个节点内容,这样效率变有了10倍至100倍的提升,在实际应用中,效果是非常好的。:D
0x07 动态爬虫源码分享
爬虫模型
目前这个爬虫模型如上图,调度模块是核心模块。调度模块分别与下载模块,析取模块,存储模块共享三个队列,下载模块与析取模块共享一个队列。数据传递方向如图示。
爬虫源码
实现了以下功能:
动态下载
gevent处理
BloomFilter过滤
URL相似度过滤
关键字过滤
爬取深度
Github地址:https://github.com/manning23/MSpider
代码总体来说难度不大,各位轻喷。
0x08 参考文章
感谢以下分享的文章与讨论
http://security.tencent.com/index.php/blog/msg/34 http://www.pnigos.com/?p=217
http://security.tencent.com/index.php/blog/msg/12 http://wenku.baidu.com/view/7fa3ad6e58fafab069dc02b8.html
http://wenku.baidu.com/view/67fa6feaaeaad1f346933f28.html
http://www.html5rocks.com/zh/tutorials/internals/howbrowserswork/
http://www.elias.cn/Python/PyConcurrency?from=Develop.PyConcurrency
http://blog.csdn.net/HanTangSongMing/article/details/24454453
http://blog.csdn.net/historyasamirror/article/details/6746217 http://www.spongeliu.com/399.html
http://xlambda.com/gevent-tutorial/ http://simple-is-better.com/news/334
http://blog.csdn.net/jiaomeng/article/details/1495500 http://bbs.chinaunix.net/forum.php?mod=viewthread&tid=1337181
http://www.tuicool.com/articles/nieEVv http://www.zhihu.com/question/21652316 http://code.rootk.com/entry/crawler
请关注下篇文章
http://auto.sohu.com/index.html 962016533
http://auto.sohu.com/about.html 962016533
类似这种,应该算误杀了,楼主还有没有更好的方法优化?
这个爬虫需要去相似的时候说明目的并不是爬所有的东西只是爬取这个网页的结构所以结构类似的静态网页就可以不用爬取了 不过我觉得这个去相似的算法还有待加强
你那篇文章太挫,你好好看看这篇文章的内容
如果做成一般性很强的爬虫,那几乎是搜索引擎需要干的事。一般的需求是抓取页面,从而形成结构化数据,这就需要爬虫按照某个顺序抓取。所以针对不同的任务,就需要设计不同的爬虫(不同的抓取方式,解析页面的方法)。
关于存储,除了关系型数据库,还可以考虑mongodb这种文档型数据库。
想请教一下为什么要计算 url 相似度?计算这个目的是什么?要解决什么问题啊?
一直不知道这个的目的是什么,好焦躁。
好东西,学习了。
不错,代码正在看,学习。
大牛啊,我的爬虫要技术更新了!
福音
1、我只是说相似度这个执行结果是完全一样的,没有区别。
2、谁说很次?我觉得这个算法非常好啊。只是不太理解为何你共享的github上那个执行不了而已啊。
3、我发的那篇文章只是抛砖引玉,不发的话,怎么引你这块玉出来撒。。:)
3、我看到引用链接。。如果可以的话,我两可以深入讨论下。:)
make
想给你交流下关于爬虫的技术,因为最近我也在学习爬虫技术。方便留联系方式吗?
多谢分享,学习了
第一,这个思路成型的时候,你那个文章还没发:)
第二,虽然这个相似度算法很次,但是真没有抄袭你的。
第二,我已在参考文章最后一段给出了引用的连接
如果你没注意,我在发一下:)
http://bbs.chinaunix.net/forum.php?mod=viewthread&tid=1337181
http://www.spongeliu.com/399.html
动态爬虫源码分享 这个东西很有意思。。。我回头也实践下,哇哈哈。。
这个URL调优的方案,我之前就在wooyun发过了。。
感谢大牛
不懂╮(╯▽╰)╭
赞!!
@asdf,@Manning两位大侠能否留下QQ,想跟大侠学习(*^__^*)
大赞!牛!
我说的从硬件上改变性能,在里面也包含改进软件机制,嘿嘿!之前是处理网络上的数据包,当一个场景中人数上万时候应用就很多,当时采用这种办法做的。
1:hash那块可以进行二次hash判断;
2:之前做过一个平台,不同于我们x86的结构,直接是多核处理,一个平台上跑16核或者32核的,从硬件上改变性能,不知道跟协程模型比较起来怎么样,呵呵!
跟大侠们学习了,谢谢!
感谢分享
赞!再加上自动选取代理
干货!
不错,又可以改进我的爬虫了
感谢分享!
mark
学习了
感谢,,,正需要
还有URL抓取模式(目录抓取,同域,子域,外域抓取),深度广度优先策略,异常HTML页面处理,js执行(含第三方JS库加载),URL相对目录处理,登录爬取(Form,cookie,HTTP Auth),回调callback实现,inclusion/exclusion Url 等等这些都是可以在这个大框架中完善的功能点 :P
对页面动态解析和URL压缩非常感兴趣,感谢楼主
非常不错,对于爬虫基本层面的问题和解决方案涉猎比较丰富。web2.0的问题和细节这块也可以分享下。
mark
学习了,谢谢分享。哈哈。
这个确实屌,精品中的精品,源码收藏了。
前排抢楼