Scrapy框架的使用之Scrapy通用爬虫

wenjianwzz 29 0 PDF 2021-02-01 00:02:13

通过Scrapy,我们可以轻松地完成一个站点爬虫的编写。但如果抓取的站点量非常大,比如爬取各大媒体的新闻信息,多个Spider则可能包含很多重复代码。如果我们将各个站点的Spider的公共部分保留下来,不同的部分提取出来作为单独的配置,如爬取规则、页面解析方式等抽离出来做成一个配置文件,那么我们在新增一个爬虫的时候,只需要实现这些网站的爬取规则和提取规则即可。本节我们就来探究一下Scrapy通用爬虫的实现方法。在实现通用爬虫之前,我们需要先了解一下CrawlSpider,其官方文档链接为:http://scrapy.readthedocs.

用户评论
请输入评论内容
评分:
暂无评论