scrapy 2.3 编写自己的项目管道

2021-07-14 17:54 更新

每个item pipeline组件都是一个python类,必须实现以下方法:

process_item(selfitemspider)

对每个项管道组件调用此方法。

item 是一个 item object 见 支持所有项目类型 .

process_item()​ 必须:返回 item object 返回A ​Deferred​ 或提高 ​DropItem​ 例外。

丢弃的项目不再由其他管道组件处理。

参数
  • item (item object) -- 管道的东西

  • spider (​Spider​ object) -- 爬取项目的蜘蛛

此外,它们还可以实现以下方法:

open_spider(selfspider)

当spider打开时调用此方法。

参数

spider (​Spider​ object) -- 打开的蜘蛛

close_spider(selfspider)

当spider关闭时调用此方法。

参数

spider (​Spider​ object) -- 关闭的蜘蛛

from_crawler(clscrawler)

如果存在,则调用此ClassMethod从 ​Crawler​ . 它必须返回管道的新实例。爬虫对象提供对所有零碎核心组件(如设置和信号)的访问;它是管道访问它们并将其功能连接到零碎的一种方式。

参数

crawler (​Crawler​ object) -- 使用此管道的爬虫程序

以上内容是否对您有帮助:
在线笔记
App下载
App下载

扫描二维码

下载编程狮App

公众号
微信公众号

编程狮公众号