首页 > 其他 > 详细

CrawlSpider:类,Spider的一个子类

时间:2020-06-01 13:27:09      阅读:29      评论:0      收藏:0      [点我收藏+]

全站数据爬取的方法

  • 基于spider:手动请求
  • 基于CrawlSpider

CrawlSpider的使用:

创建一个工程

cd xxx

创建爬虫文件(Crawlspider):

  • 指令 scrapy genspider -t crawl xxx www.xxx.com

链接提取器 LinkExtractor

  • 作用:根据指定规则(allow="正则")进行指定链接的提取

规则解析器Rule

  • 作用:将链接提取器提取到的链接进行指定规则(callback)的解析操作
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule


class SunSpider(CrawlSpider):
    name = sun
    # allowed_domains = [‘www.xxx.com‘]
    start_urls = [http://wz.sun0769.com/political/index/politicsNewest?id=1&page=1]

    # 链接提取器:根据指定的规则(allow="正则")进行指定链接的提取
    link = LinkExtractor(allow=rid=1&page=\d+)
    rules = (
        # Rule规则解析器:
        Rule(link, callback=parse_item, follow=False),
    )

    def parse_item(self, response):
        print(response)

 

CrawlSpider:类,Spider的一个子类

原文:https://www.cnblogs.com/nanjo4373977/p/13024650.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!