Python Scrapy框架的组件有哪些,工作原理是什么
Admin 2022-05-25 群英技术资讯 1124 次浏览
在这篇文章中,我们来学习一下“Python Scrapy框架的组件有哪些,工作原理是什么”的相关知识,下文有详细的讲解,易于大家学习和理解,有需要的朋友可以借鉴参考,下面就请大家跟着小编的思路一起来学习一下吧。Scrapy是一个快速、高层次的屏幕抓取和web抓取的框架,可用于数据挖掘、监测和自动化检测,任何人都可以根据需要去进行修改。
1.Scrapy引擎(Scrapy Engine):负责控制数据流在系统的所以组件中的流动,并在相应动作发生时触发事件。
2.调度器(Scheduler):从引擎接受reques并将其入队,便于以后请求它们提供给引擎。
3.下载器(Downloader):负责获取网页数据并且提供给引擎,然后提供给Spider。
4.Spiders: 指Scrapy用户编写用于分析response并且提取item或额外跟进的URL类人。每个Spider负责处理一些特定网站。
5.Item Pipeline:负责处理被Spider提取出来的item。典型的处理有清洁、验证及持久化
6.下载器中间件(Downloader Middlewares):指在引擎及下载器之间的特定钩子(specific hook),处理Downloader 传递给引擎的response。它提供一个简便的机制,通过插入自定义代码来扩展Scrapy功能。
7.Spiders中间件(Spider Middlewares):指在引擎及Spider之间的特定钩子(specific hook),处理Spider 的输入(response)和输出(items及requests)。它提供一个简便的机制,通过插入自定义代码来扩展Scrapy功能。

1.引擎向spider要URL
2.引擎将要爬取的URL给调度器
3.调度器会将URL生成请求对象放入指定的队列中
4.从队列中出队一个请求
5.引擎将请求交给下载器进行处理
6.下载器发送请求获取互联网数据
7.下载器将数据返回给引擎
8.引擎将数据再次给到spiders
9.spiders通过xpath解析该数据,得到数据或URL
10.spiders将数据或URL给到引擎
11.引擎判断该数据是URL还是数据,交给管道处理,URL交给调度器处理
12.当调度器里没有任何数据之后,整个程序停止
下面是我根据工作原理画的可以结合去看:

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
while循环在给定条件下,满足条件时执行循环体,否则退出,在python的循环语句中while语句发挥很大的作用,具体while语句是什么?如何用呢?下面我们来看看。
由于项目取数需要,要将两个不同的csv文件合并到一个文件中,所以下面这篇文章主要给大家介绍了关于利用python合并csv文件的相关资料,文中通过实例代码介绍的非常详细,需要的朋友可以参考下
最小公倍数可用于解决一些问题,因此要关注最小公倍数。在python中怎么求去最小公倍数呢?下面,小编来教教你吧。
签到,都是规律性的操作,何尝不写一个程序加到Windows实现自动签到呢,本文就主要介绍了如何利用Python实现自动打卡签到的实践,具有一定的参考价值,感兴趣的可以了解一下
这篇文章主要介绍了python中常见进制之间的转换方式,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
成为群英会员,开启智能安全云计算之旅
立即注册关注或联系群英网络
7x24小时售前:400-678-4567
7x24小时售后:0668-2555666
24小时QQ客服
群英微信公众号
CNNIC域名投诉举报处理平台
服务电话:010-58813000
服务邮箱:service@cnnic.cn
投诉与建议:0668-2555555
Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 ICP核准(ICP备案)粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008