首页 > 其他 > 详细

scrapy执行流程

时间:2018-04-03 22:55:06      阅读:202      评论:0      收藏:0      [点我收藏+]
  1. def _next_request_from_scheduler(self, spider): fetch一个request,调用http11 handler,client的agent,返回的是deffered。
  2. _handle_downloader_output()if isinstance(response, Request):如果是请求,继续爬行,调用crawl时会把请求放到调度器
                self.crawl(response, spider)
  3. def enqueue_scrape( 请求入队
  4. def _scrape_next(self, spider, slot):
  5. _scrape2
  6. call_spider
  7. handle_spider_output
  8. _process_spidermw_output
             

scrapy执行流程

原文:https://www.cnblogs.com/pyhai/p/8711340.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!