首页 > 其他 > 详细

使用scrapy-redis搭建分布式爬虫环境

时间:2019-11-06 09:24:42      阅读:136      评论:0      收藏:0      [点我收藏+]

详细内容见原文:https://www.cnblogs.com/pythoner6833/p/9148937.html

在settings文件中需要添加5项:

1.DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

2.SCHEDULER = "scrapy_redis.scheduler.Scheduler"

3.SCHEDULER_PERSIST = True

4.ITEM_PIPELINES = {

  ‘scrapy_redis.piplines.RedisPipeline‘:100,

  }

5.REDIS_URL = "redis://127.0.0.1:6379"

  或者写成:REDIS_HOST=‘127.0.0.1‘

             REDIS_PORT=6379

使用scrapy-redis搭建分布式爬虫环境

原文:https://www.cnblogs.com/znh8/p/11802884.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!