This page looks best with JavaScript enabled

Scrapy从入门到弃坑(4):Scrapy对接Selenium

 ·  ☕ 7 min read · 👀... views

scrapy是通过直接模拟HTTP请求的方式进行页面抓取,这种方式与Requests库类似,是无法抓取JavaScript动态渲染页面的,在这一节,我们通过对“爱彼迎民宿网”(zh.airbnb.com)的抓取,来介绍Scrapy与Selenium的对接,只要成功实现了这个对接,Scrapy也就做到了“可见即可爬”,可以处理任何网站的抓取。(本文以FireFox为例,若是其他浏览器也是大同小异)

0x00 配置

首先常规操作安装selenium库 :

1
pip install selenium

import无异常后我们需要前往https://github.com/mozilla/geckodriver/releases下载最新版本的GeckoDriver以实现Selenium对FireFox的驱动。

将下载的GeckoDriver文件拖入Python的Scripts目录中,然后执行以下Python代码做一下测试,若成功弹出一个空白的FireFox浏览器则证明所有配置都已完成,可以进行下一步操作。

1
2
from selenium import webdriver
browser = webdriver.Firefox()

0x02 网站分析

首先明确任务:爬取“爱彼迎”网站上主流城市的房源信息,先来观察它们的url构成

https://zh.airbnb.com/s/homes?refinement_paths%5B%5D=%2Fhomes&query=BeiJing&allow_override%5B%5D=&s_tag=kYQ_4ODi&section_offset=7&items_offset=36

首先,可以很直观的看出,query参数是控制所要查询的城市地名的,而多观察几个例子,也不难看出item_offset是控制分页的,但是该参数控制分页并不是以+1来递增的。至于另外几个参数,很难直接看出它们的作用,不过没关系,我们进行一下“必要开路”,修改一下url,去掉其他参数,只留一个城市,看看网站访问是否正常。访问:https://zh.airbnb.com/s/homes?query=BeiJing后,我们可以看到,该网站自动的将url补齐了,访问了北京城市房源的第一页。

了解到该网站这个特性后就容易处理了,我们只需要重写**start_requests(self)**方法 ,枚举城市并不断通过“下一页”按钮,获得下一页的分页url,不断构造Request请求即可完成网站的爬取。

0x10 初始化项目

1
2
3
4
5
scrapy startproject airbnb
cd airbnb
scrapy genspider house zh.airbnb.com
# 修改settings.py
ROBOTSTXT_OBEY = False

然后定义Item,为了使获取到的Item各字段均为str类型,这里使用输出处理器函数进行合成

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
from scrapy import Item,Field
from scrapy.loader.processors import Join, MapCompose, TakeFirst

class AirbnbItem(Item):
    # define the fields for your item here like:
    name = Field(
        output_processor=Join(),
    )
    style = Field(
        output_processor=Join(),
    )
    price = Field(
        output_processor=Join(),
    )
    city = Field(
        output_processor=Join(),
    )
    url = Field(
        output_processor=Join(),
    )

0x11 start_requests(self)

根据网站分析得到的思路,我们将想要爬取的城市写在settings.py中的CITIES列表中,然后重写**start_requests()**方法构建各城市的初始页面Request。

1
2
3
4
5

def start_requests(self):
        for city in self.settings.get('CITIES'):
            start_url = 'https://zh.airbnb.com/s/homes?query='+city
            yield Request(url=start_url,callback=lambda response,city=city:self.parse(response,city))

0x20 对接Selenium

Scrapy与Selenium的对接是通过Downloader Middleware实现的,我们需要在Middlewares.py中写一个类,并在**procsee_request()**方法里对每个抓取的请求进行处理,启动浏览器并进行页面渲染,再将渲染后的结果构造成一个HTML Response对象返回。一下附上代码实现:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36

from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from scrapy.http import HtmlResponse

class SeleniumMiddleware():
    def __init__(self,timeout=None):
        self.timeout = timeout
        self.browser = webdriver.Firefox()
        self.browser.implicitly_wait(self.timeout)       #设置隐式等待
        self.wait = WebDriverWait(self.browser,self.timeout)     #设置显式等待


    def __del__(self):
        self.browser.close()      #对象被被Python解释器释放对象的时候默认调用__del__方法,实现关闭浏览器功能

    def process_request(self,request,spider):
        '''
        用FireFox抓取页面
        :param request:Request对象
        :param spider:Spider对象
        :return:HtmlResponse
        '''
        try:
            self.browser.get(request.url)
            self.wait.until(EC.presence_of_element_located((By.XPATH,'//span/div/ul\[@class="_11hau3k"\]')))    #根据分页控制器加载成功为标志判断网页加载完成
            return HtmlResponse(url=request.url,request=request,body=self.browser.page_source,encoding='utf-8',status=200)
        except TimeoutException:
            return HtmlResponse(url=request.url,request=request,status=500)     #超时异常处理

    @classmethod
    def from_crawler(cls,crawler):
        return cls(timeout=crawler.settings.get('SELENIUM_TIMEOUT'))

在**init()方法中我们对对象做了初始化,比如打开浏览器,设置显/隐式等待时间(由settings.py中的 SELENIUM_TIMEOUT 关键字控制),而del()**方法则会在对象被被Python解释器释放对象的时候默认调用,这里实现了一个关闭浏览器的功能。在process_request()方法中,我们通过显式等待方法wait.until判断分页控制的加载状况,若是分页控制器加载出来了,则判定网页已经完成渲染,构造一个HTML Response对象并返回。HtmlResponse对象是Response的一个子类,构造这个对象时需要传入多个参数,如url,body等,这里的body我们需要传回渲染成功后的网站源码给Spider进行解析,而源码保存在page_source类变量中,将其传给body参数即可。这里附上Html Response对象结构的官方文档:http://doc.scrapy.org/en/latest/topics/request-response.html

然后,这样就完成了???没错,就是完成了。根据Scrapy Middleware的特性,若是中间件的返回值是一个Response对象,更低优先级的Downloader Middleware的**process_request()process_exception()方法就不会再调用,转而开始执行每个Downloader Middleware的process_response()**方法,调用完毕后直接将response发送给Spider进行解析。也就是我们通过这个下载中间件替换了内置的默认下载器。这便是Downloader Middleware实现Selenium对接原理。

0x30 页面解析

获得到的response会传给Spider内的回调函数进行解析,下一步我们需要实现回调函数,这个网站的前端写的很乱,很考验各位的Xpath熟练度,这里不对页面内容的解析做过多的介绍,直接附上代码实现:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
def parse(self, response, city):
        # 这是设置info等级的日志输出
        self.logger.info('已爬取 %s 网址的响应' % response.url)
        
        info_houses = response.xpath('//div\[@itemprop="itemListElement"\]')
        for house in info_houses:
            #print(house.extract())
            loader = ItemLoader(AirbnbItem(),response=response)
            loader.add_value('name',house.xpath('./meta\[@itemprop="name"\]/@content').extract_first().replace('- undefined -',''))
            loader.add_value('style',house.xpath('.//a\[@class\]//span\[@class="_14ksqu3j"\]/span//text()').extract())
            loader.add_value('price',house.xpath('./div//span/span/span\[@class="_9nurmxj"\]/span\[@class="_9nurmxj"\]/..//text()').extract())
            loader.add_value('city',city)
            loader.add_value('url',house.xpath('./meta\[@itemprop="url"\]/@content').extract_first())

            item = loader.load_item()
            print(item)
            yield item
        next_page = response.xpath('//li\[@class="_b8vexar"\]/a\[@class="_5u96sq" and @aria-busy="false"\]/@href').extract_first()
        if next_page != None:
            yield Request(url=self.base_url+next_page,callback=lambda response,city=city:self.parse(response,city))

整个项目完成了,执行 scrapy crawl house 命令即可开始抓取。

0x40 修改日志等级

启动抓取后,我们可以看到一切进行顺利,但是输出了很多很多很多乱七八糟的东西。

虽然这些东西的输出似乎不影响整个项目的运行,但是笔者总是感觉很不爽,为什么要输出这些东西啊。笔者将其输出日志保存下来观察发现这个像是网站的源码,查了资料发现在对接过程中Scrapy框架会以DEBUG等级日志输出渲染完成的网页源码。想要解决这个问题,首先我们需要先了解一些Scrapy日志等级,在Scrapy中,日志被分为5个等级,默认指定的等级是最低级的DEBUG,也就是DEBUG及DEBUG以上等级的日志会被输出,若是人为将输出等级提高,比如提高到ERROR级,那么只会输出ERROR级及其以上的等级。

根据这个特点,我们可以通过修改Scrapy输出日志等级来去除这些输出。有两个方法可以实现这个功能:

第一个是在settings.py中修改本项目的日志输出等级,只需要在最后加上一行即可

1
LOG_LEVEL = 'INFO'       #设置日志输出等级,INFO及INFO以上等级的日志会被输出(即忽略DEBUG等级日志)

第二种方法是通过参数修改本次输出日志最低等级,也就是在执行命令时采用这条命令:

1
scrapy crawl -L INFO house

通过这两种方法,便可以成功解决对接时输出大量垃圾信息的问题了。

Scrapy对接Selenium教程到此结束,在下一节中会介绍更高效的页面渲染方法。

若是各位对Python学习有什么心得体会欢迎联系**Mail:root@qfrost.com**与我联系。

Share on

Qfrost
WRITTEN BY
Qfrost
CTFer, Anti-Cheater, LLVM Committer