首页 > 其他 > 详细

分布式爬虫scrapy_redis

时间:2019-02-12 23:46:18      阅读:293      评论:0      收藏:0      [点我收藏+]

1.

from scrapy_redis.spiders import RedisSpider
导入依赖包
更改继承类

2.打开redis服务

    

redis-server --server-start

  

 3.修改配置文件

#启用Redis调度存储请求队列
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
  
#确保所有的爬虫通过Redis去重
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
  
#默认请求序列化使用的是pickle 但是我们可以更改为其他类似的。PS:这玩意儿2.X的可以用。3.X的不能用
#SCHEDULER_SERIALIZER = "scrapy_redis.picklecompat"
  
#不清除Redis队列、这样可以暂停/恢复 爬取
#SCHEDULER_PERSIST = True
  
#使用优先级调度请求队列 (默认使用)
#SCHEDULER_QUEUE_CLASS = ‘scrapy_redis.queue.PriorityQueue‘
#可选用的其它队列
#SCHEDULER_QUEUE_CLASS = ‘scrapy_redis.queue.FifoQueue‘
#SCHEDULER_QUEUE_CLASS = ‘scrapy_redis.queue.LifoQueue‘
  
#最大空闲时间防止分布式爬虫因为等待而关闭
#SCHEDULER_IDLE_BEFORE_CLOSE = 10
  
#将清除的项目在redis进行处理
ITEM_PIPELINES = {
    ‘scrapy_redis.pipelines.RedisPipeline‘: 300
}
  
#序列化项目管道作为redis Key存储
#REDIS_ITEMS_KEY = ‘%(spider)s:items‘
  
#默认使用ScrapyJSONEncoder进行项目序列化
#You can use any importable path to a callable object.
#REDIS_ITEMS_SERIALIZER = ‘json.dumps‘
  
#指定连接到redis时使用的端口和地址(可选)
#REDIS_HOST = ‘localhost‘
#REDIS_PORT = 6379
  
#指定用于连接redis的URL(可选)
#如果设置此项,则此项优先级高于设置的REDIS_HOST 和 REDIS_PORT
REDIS_URL = ‘redis://@localhost:6379‘
  
#自定义的redis参数(连接超时之类的)
#REDIS_PARAMS  = {}
  
#自定义redis客户端类
#REDIS_PARAMS[‘redis_cls‘] = ‘myproject.RedisClient‘
  
#如果为True,则使用redis的‘spop‘进行操作。
#如果需要避免起始网址列表出现重复,这个选项非常有用。开启此选项urls必须通过sadd添加,否则会出现类型错误。
#REDIS_START_URLS_AS_SET = False
  
#RedisSpider和RedisCrawlSpider默认 start_usls 键
#REDIS_START_URLS_KEY = ‘%(name)s:start_urls‘
  
#设置redis使用utf-8之外的编码
#REDIS_ENCODING = ‘latin1‘

 

4.在cmd窗口切换到redis目录下

如果 REDIS_START_URLS_AS_SET = False

命令为  redis-cli lpush 项目名:start_urls 启动链接

如果 REDIS_START_URLS_AS_SET = True

命令为  redis-cli sadd 项目名:start_urls 启动链接

 

分布式爬虫scrapy_redis

原文:https://www.cnblogs.com/404NooFound/p/10367550.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!