首页 > 其他 > 详细

scrapy 带认证的代理

时间:2020-01-17 18:58:44      阅读:86      评论:0      收藏:0      [点我收藏+]

官方方法:

from w3lib.http import basic_auth_header

class CustomProxyMiddleware(object):
    def process_request(self, request, spider):
        request.meta[‘proxy‘] = "https://<PROXY_IP_OR_URL>:<PROXY_PORT>"
        request.headers[‘Proxy-Authorization‘] = basic_auth_header(
            ‘<PROXY_USERNAME>‘, ‘<PROXY_PASSWORD>‘)

 

DOWNLOADER_MIDDLEWARES = {
    ‘<PROJECT_NAME>.middlewares.CustomProxyMiddleware‘: 350,
    ‘scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware‘: 400,
}

 

来源: https://support.scrapinghub.com/support/solutions/articles/22000219743-using-a-custom-proxy-in-a-scrapy-spider

经过测试,不带认证的这么写也没有问题

scrapy 带认证的代理

原文:https://www.cnblogs.com/WalkOnMars/p/12207063.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!