百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

Python | selenium 在 scrapy 中的使用

wptr33 2025-03-12 21:11 22 浏览

一直以来,我们都是直接使用 scrapy 框架的 Request 模块进行网页数据的请求。但是如果网页中有动态加载的数据,这种方式就不容易实现了。

其实 scrapy 更多的处理的还是没有动态加载数据的页面。对于动态加载的页面,我们还是比较倾向于使用 requests。

但是如果真的有这么个需求,需要我们使用 scrapy 爬取动态页面的话,通过 selenium 发送请求获取数据,将会是一个不错的选择。

接下来,我们通过爬取网易新闻,来演示如何在 scrapy 中,使用 selenium 爬取数据。

需求:爬取网易新闻中的国内,国际,军事,航空,无人机这五个板块下所有的新闻数据(标题 + 内容)

网址 url:https://news.163.com/

分析:

  • 首页没有动态加载的数据,可以直接爬取到五个板块对应的 url
  • 每一个板块对应的页面中的新闻标题是动态加载,需要使用 selenium 爬取新闻标题和详情页的 url(关键)
  • 每一条新闻详情页面中的数据不是动态加载,在这里可以爬取到新闻内容

selenium 在 scrapy 中的使用流程

  1. 在爬虫类中实例化一个浏览器对象,将其作为爬虫类的一个属性
  2. 在中间件中实现浏览器自动化相关的操作
  3. 在爬虫类中重写 closed(self, spider) 方法,在其内部关闭浏览器对象

接下来,我们就按照流程,依次编写我们的代码。

首先,编写爬虫源文件中的代码,一切都按照正常思路走就行。先从首页到每个模块页,在模块页中拿到新闻的标题和详情页的 url。再从模块页进入到详情页,拿到文章内容。

用代码表示就是:

import scrapy
from selenium import webdriver
from wangyiPro.items import WangyiproItem

class WangyiSpider(scrapy.Spider):
    name = 'wangyi'
    # allowed_domains = ['news.163.com']
    start_urls = ['http://news.163.com/']
    module_urls = []
    # 实例化了一个全局的浏览器对象,稍后在中间件中会用到
    bro = webdriver.Chrome()

    def parse(self, response):
        # 国内,国际,军事,航空,无人机这五个板块的索引
        target_list = [3, 4, 6, 7, 8]
        li_list = response.xpath('//div[@class="ns_area list"]/ul/li')
        for target in target_list:
            li = li_list[target]
            url = li.xpath('./a/@href').extract_first()
            self.module_urls.append(url)
            # 对每一个板块的url发起请求
            yield scrapy.Request(url, callback=self.parse_module)

    # 数据解析:新闻标题+新闻详情页的url(动态加载的数据)
    def parse_module(self, response):
        # 直接对response解析新闻标题数据是无法获取该数据(动态加载的数据)
        # response是不满足当下需求的response,需要将其变成满足需求的response
        # 满足需求的response就是包含了动态加载数据的response
        # 满足需求的response和不满足的response区别在哪里?
        # 区别就在于响应数据不同。我们可以使用中间件将不满足需求的响应对象中的响应数据篡改成包含
        # 了动态加载数据的响应数据,将其变成满足需求的响应对象
        div_list = response.xpath('//div[@class="newsdata_wrap"]/ul/li[1]/div/div')
        for div in div_list:
            url = div.xpath('./a/@href').extract_first()
            title = div.xpath('./div/div[1]/h3/a/text()').extract_first()
            if url and title:  # 因为广告等原因,有些链接取不到url和title
                item = WangyiproItem()
                item['title'] = title
                yield scrapy.Request(url, callback=self.parse_detail, meta={'item': item})

    def parse_detail(self, response):
        """解析新闻详情"""
        item = response.meta['item']
        content = response.xpath('//div[@id="endText"]/p/text()').extract()
        item['content'] = content
        yield item

    # 爬虫类父类的方法,该方法是在爬虫结束前最后一刻执行
    def closed(self, spider):
        self.bro.close()

但是这样是解析不出数据来的。因为我们前面分析过,模块页中的每个文章都是动态加载的。我们需要修改响应数据,让响应数据变成我们想要的那种,加载好了新闻链接和标题的网页数据。这就要在中间件中,通过 selenium 发送请求,获取数据了。

用代码实现就是:

from scrapy.http import HtmlResponse
from time import sleep

class WangyiproDownloaderMiddleware(object):
    # 拦截所有的响应对象
    # 整个工程发起的请求:1+5+n,相应也会有1+5+n个响应
    # 只有指定的5个响应对象是不满足需求
    # 只将不满足需求的5个指定的响应对象的响应数据进行篡改即可
    def process_response(self, request, response, spider):
        # 在所有拦截到的响应对象中找出指定的5个响应对象
        if request.url in spider.module_urls:
            bro = spider.bro
            # response表示的就是指定的不满足需求的5个响应对象
            # 篡改响应数据:首先先获取满足需求的响应数据,将其篡改到响应对象中即可
            # 满足需求的响应数据就可以使用selenium获取
            bro.get(request.url)    # 对五个板块的url发起请求
            sleep(2)
            bro.execute_script('window.scrollTo(0, document.body.scrollHeight)')
            sleep(2)
            # 捕获到了板块页面中加载出来的全部数据(包含了动态加载的数据)
            # response.text = bro.page_source
            # 返回一个新的响应对象,新的对象替换原来不满足需求的旧的响应对象
            return HtmlResponse(url=request.url, body=bro.page_source, encoding='utf-8', request=request)
        return response    # 1+n

剩下的就是在配置中开启管道和中间件,在 items 中写上相应字段,在管道中进行数据持久化存储,就不一一介绍了。

至此,我们实现了在 scrapy 中使用 selenium 发送请求。

相关推荐

oracle数据导入导出_oracle数据导入导出工具

关于oracle的数据导入导出,这个功能的使用场景,一般是换服务环境,把原先的oracle数据导入到另外一台oracle数据库,或者导出备份使用。只不过oracle的导入导出命令不好记忆,稍稍有点复杂...

继续学习Python中的while true/break语句

上次讲到if语句的用法,大家在微信公众号问了小编很多问题,那么小编在这几种解决一下,1.else和elif是子模块,不能单独使用2.一个if语句中可以包括很多个elif语句,但结尾只能有一个else解...

python continue和break的区别_python中break语句和continue语句的区别

python中循环语句经常会使用continue和break,那么这2者的区别是?continue是跳出本次循环,进行下一次循环;break是跳出整个循环;例如:...

简单学Python——关键字6——break和continue

Python退出循环,有break语句和continue语句两种实现方式。break语句和continue语句的区别:break语句作用是终止循环。continue语句作用是跳出本轮循环,继续下一次循...

2-1,0基础学Python之 break退出循环、 continue继续循环 多重循

用for循环或者while循环时,如果要在循环体内直接退出循环,可以使用break语句。比如计算1至100的整数和,我们用while来实现:sum=0x=1whileTrue...

Python 中 break 和 continue 傻傻分不清

大家好啊,我是大田。今天分享一下break和continue在代码中的执行效果是什么,进一步区分出二者的区别。一、continue例1:当小明3岁时不打印年龄,其余年龄正常循环打印。可以看...

python中的流程控制语句:continue、break 和 return使用方法

Python中,continue、break和return是控制流程的关键语句,用于在循环或函数中提前退出或跳过某些操作。它们的用途和区别如下:1.continue(跳过当前循环的剩余部分,进...

L017:continue和break - 教程文案

continue和break在Python中,continue和break是用于控制循环(如for和while)执行流程的关键字,它们的作用如下:1.continue:跳过当前迭代,...

作为前端开发者,你都经历过怎样的面试?

已经裸辞1个月了,最近开始投简历找工作,遇到各种各样的面试,今天分享一下。其实在职的时候也做过面试官,面试官时,感觉自己问的问题很难区分候选人的能力,最好的办法就是看看候选人的github上的代码仓库...

面试被问 const 是否不可变?这样回答才显功底

作为前端开发者,我在学习ES6特性时,总被const的"善变"搞得一头雾水——为什么用const声明的数组还能push元素?为什么基本类型赋值就会报错?直到翻遍MDN文档、对着内存图反...

2023金九银十必看前端面试题!2w字精品!

导文2023金九银十必看前端面试题!金九银十黄金期来了想要跳槽的小伙伴快来看啊CSS1.请解释CSS的盒模型是什么,并描述其组成部分。答案:CSS的盒模型是用于布局和定位元素的概念。它由内容区域...

前端面试总结_前端面试题整理

记得当时大二的时候,看到实验室的学长学姐忙于各种春招,有些收获了大厂offer,有些还在苦苦面试,其实那时候的心里还蛮忐忑的,不知道自己大三的时候会是什么样的一个水平,所以从19年的寒假放完,大二下学...

由浅入深,66条JavaScript面试知识点(七)

作者:JakeZhang转发链接:https://juejin.im/post/5ef8377f6fb9a07e693a6061目录由浅入深,66条JavaScript面试知识点(一)由浅入深,66...

2024前端面试真题之—VUE篇_前端面试题vue2020及答案

添加图片注释,不超过140字(可选)1.vue的生命周期有哪些及每个生命周期做了什么?beforeCreate是newVue()之后触发的第一个钩子,在当前阶段data、methods、com...

今年最常见的前端面试题,你会做几道?

在面试或招聘前端开发人员时,期望、现实和需求之间总是存在着巨大差距。面试其实是一个交流想法的地方,挑战人们的思考方式,并客观地分析给定的问题。可以通过面试了解人们如何做出决策,了解一个人对技术和解决问...