page contents

一篇文章带你快速理解爬虫

网上有关爬虫的资料特别多,写的都挺复杂的,我这里不打算讲什么大道理,因为其实爬虫挺好理解的。 就是下面一个流程: 爬虫的功能就是把网页源代码想办法爬下来,然后分析出需要的内容。...

网上有关爬虫的资料特别多,写的都挺复杂的,我这里不打算讲什么大道理,因为其实爬虫挺好理解的。

就是下面一个流程:

attachments-2019-12-QuDZgQAh5e044d1eab244.png


爬虫的功能就是把网页源代码想办法爬下来,然后分析出需要的内容。

总结起来就是2个部分:

  1. 提取

所以,整个爬虫需要掌握的技能,就是如何高效的爬,如何快速的分析提取所需要的内容。


如何爬?

Requests

目前用的比较多的是requests这个第三方包,正如requests的官方网页说的:

Requests: HTTP for Humans

它目前应该是python下最好的Http库了,它还有很多别的特性:

Requests 使用的是 urllib3,继承了urllib2的所有特性。Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码。


上面介绍的是单线程爬虫,然后,如果要提高爬的效率,并行化肯定必不可少,那么scrapy就可以解决你的问题。


Requests安装

pip install requests

所有的python第三方包的安装都可以用pip,如果cmd中无法输入pip命令,请把C:\Python27\Scripts加入PATH环境变量。注:这里不推荐使用easy_install  因为这个只管安装,不管卸载。


Requests使用

基本知道一个requests.get()和requests.post()就行了。同样它还有
requests.head()
requests.delete()
功能,不过用的不多。需要的时候,查手册就好了。
requests的返回值可以有多种形式输出,最常用的是
“.text”和".content",前者输出unicode,后者输出二进制。

 import requests   url = 'http://www.baidu.com' html = requests.get(url) print html.text


输出:

<!DOCTYPE html><!--STATUS OK--><html><head><meta http-equiv="content-type" content="text/html;charset=utf-8"><meta http-equiv="X-UA-Compatible" content="IE=Edge"><meta content="always" name="referrer"><meta name="theme-color" content="#2932e1"><link rel="shortcut icon" href="/favicon.ico" type="image/x-icon" /><link rel="search" type="application/opensearchdescription+xml" href="/content-search.xml" title="百度搜索" /><link rel="icon" sizes="any" mask href="//www.baidu.com/img/baidu.svg"><link rel="dns-prefetch" href="//s1.bdstatic.com"/><link rel="dns-prefetch" href="//t1.baidu.com"/><link rel="dns-prefetch" href="//t2.baidu.com"/><link rel="dns-prefetch" href="//t3.baidu.com"/><link rel="dns-prefetch" href="//t10.baidu.com"/><link rel="dns-prefetch" href="//t11.baidu.com"/><link rel="dns-prefetch" href="//t12.baidu.com"/><link rel="dns-prefetch" href="//b1.bdstatic.com"/><title>百度一下,你就知道</title>…………


如何提取?

正则表达式

很多人都听过正则表达式,第一印象就是记不住,但是其实也不用特别记忆,因为在爬虫里,用的最多的基本就一个:

(.*?)

(  ) :表示这个内容是我们需要提取的
.*  :表示匹配任意字符0到n次
表示非贪心,找对第一个就停下来
我来解释下为什么在爬虫里只要这个pattern就行了。在html网页源代码中,我们需要找的内容一般都是被某些标签包围的,如果我们能保证找到我们需要的内容左右的标签(并且他们是独一无二的),那么我们很容易写出一个正则表达式:

<XXX>(.*?)</XXX>


python正则模块使用

python的正则模块是re,主要用的函数是re.S,意思是让"."可以匹配换行符,不然有些标签头和尾是分几行的,就会匹配失败。主力部队:

findall(pattern,str,re.S)

它能把所有满足正则的内容提取出来,用于匹配满足某个条件的大量我们需要的内容。比如所有的图片,所有的网址,所有的回复,所有的链接等等。它在网页提取中占了主要地位,工作量大,任务重,所以是主力部队。
狙击手:

search(pattern,str,re.S)

它用来匹配第一个找到的元素,它的目标目的就是找到我们明显知道只有一个的元素比如标题什么的,一旦找到就结束,所以它的执行速度很快。它的目标明确,效率高,所以是狙击手的角色。
后勤:

sub(pattern,str,replace)

它的功能是替换,一般用于替换一个网页地址中的关键词,替换页码等。它看似不重要,但是往往能在很多方面给我们提供便利,所以是后勤。注意:正则有时候一步不能完成我们需要的功能,可能需要进行几步操作,这时候,我们一般先提取大的部分,在从大部分里面提取我们需要的部分。我们看个很简单的例子:

import re#假设下面是一个源码,我想保存里面所有的链接text = '<a href = "www.baidu.com">....'urls = re.findall('<a href = (.*?)>',text,re.S)for each in urls:    print each#假设我需要爬取当前网页的头部html = '''<html><title>爬虫的基本知识</title><body>……</body></html>'''print re.search('<title>(.*?)</title>',html,re.S).group(1)#这里group(1)表示第一个括号的内容,如果正则里面有多个括号,这里可以通过group(i)返回第i个空格里的内容#假设下面是一个贴吧的帖子地址,有很多页,每一页就是靠后面的pn=几来区分的,我们输出前10页的网址Pages = 'http://tieba.baidu.com/p/4342201077?pn=1'for i in range(10):     print re.sub('pn=\d','pn=%d'%i,Pages)


输出:

"www.baidu.com"爬虫的基本知识http://tieba.baidu.com/p/4342201077?pn=0http://tieba.baidu.com/p/4342201077?pn=1http://tieba.baidu.com/p/4342201077?pn=2http://tieba.baidu.com/p/4342201077?pn=3http://tieba.baidu.com/p/4342201077?pn=4http://tieba.baidu.com/p/4342201077?pn=5http://tieba.baidu.com/p/4342201077?pn=6http://tieba.baidu.com/p/4342201077?pn=7http://tieba.baidu.com/p/4342201077?pn=8http://tieba.baidu.com/p/4342201077?pn=9


XPath

如果说正则表达式就已经让你觉得很神奇了,那XPath真是要吓死你了。这真是个神器,它让提取信息网页信息变得更加轻松。XPath是一个树型的结构,比较符合“html”的层次结构。XPath即为XML路径语言,它是一种用来确定XML(标准通用标记语言的子集)文档中某部分位置的语言。XPath基于XML的树状结构,提供在数据结构树中找寻节点的能力。起初 XPath 的提出的初衷是将其作为一个通用的、介于XPointer与XSLT间的语法模型。但是 XPath 很快的被开发者采用来当作小型查询语言。如果你提取信息就像让你找一栋建筑,那么正则就是告诉你建筑左边是什么,右边是什么,但是全国可能有很多都满足条件的,你找起来还是不方便。

红房子(.*?)绿房子

XPath就是告诉你,这个建筑在北京市——海淀区——中关村——15号街——那栋黄色的建筑,你可以马上找到对应的建筑。如果一个地名只有一个地方有,那么你更可以简化成“中关村——15号街”。

//北京市/海淀区/中关村/15号街[@房子颜色=黄色]/text()//中关村/15号[@房子颜色=黄色]/text()

也许在这里你还没能体会到他们之间的差别,但是相信我,当你遇到复杂的html分析的时候,你会发现它的厉害之处的。比如下面的例子,我想把Hello,my world!打印出来,用正则需要考虑一下吧?但是用XPath就简单很多:

<div id="class">Hello,    <font color=red>my    world!<div>


XPath语法

XPath你只需要知道这些语法://  根节点/ 下一层路径[@XX=xx]  特定的标签/text()   以文本返回/@para  返回参数string(.)   当前层的所有内容作为一个字符串输出start-with(str)  所有以这个str开头的标签下面是一个简单的例子:

from lxml import etreehtml='''<div id="test1">content1</div><div id="test2">content2</div><div id="test3">content3</div>'''selector = etree.HTML(html)content = selector.XPath('//div[start-with(@id,"test")]/text()')for each in content:    print eachhtml1='''<div id="class">Hello,    <font color=red>my</font>    world!<div>'''selector = etree.HTML(html)tmp = selector.XPath('//div[@id="class"]')[0]info = tmp.XPath('string(.)')content2 = info.replace('\n','')print content2


输出:

content 1content 2content 3Hello,        my        world!  
  • 发表于 2019-12-26 14:03
  • 阅读 ( 911 )
  • 分类:Python开发

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
Pack
Pack

1135 篇文章

作家榜 »

  1. 轩辕小不懂 2403 文章
  2. 小柒 1478 文章
  3. Pack 1135 文章
  4. Nen 576 文章
  5. 王昭君 209 文章
  6. 文双 71 文章
  7. 小威 64 文章
  8. Cara 36 文章